<blockquote id="wemmu"></blockquote>
  • <samp id="wemmu"></samp>
    <label id="wemmu"><label id="wemmu"></label></label>
  • <samp id="wemmu"><label id="wemmu"></label></samp><samp id="wemmu"><s id="wemmu"></s></samp>
  • 2022年08月17日 星期三
    首頁>國際媒介 > 正文

    西方人工智能的數字倫理規制:困境與進路

    2022-07-14 15:24:13

    來源:青年記者2022年7月上   作者:王沛楠/編譯

    摘要:人工智能所具有的價值判斷和社會決策潛能需要得到進一步的監管,但技術黑箱帶來的透明性陷阱與法律層面人工智能人格主體地位的模糊性為有效規制帶來了挑戰。

      摘  要:人工智能的快速發展和社會層面的廣泛使用引發了一系列新的社會問題。人工智能所具有的價值判斷和社會決策潛能需要得到進一步的監管,但技術黑箱帶來的透明性陷阱與法律層面人工智能人格主體地位的模糊性為有效規制帶來了挑戰。蒙特利爾人工智能倫理研究所今年5月推出的《人工智能倫理道德報告》認為,對于人工智能算法的規制應當訴諸具有明確操作性的原則,基于人類道德框架、多元數據來源和公共部門的算法問責實現對人工智能有效的數字倫理規制。

      關鍵詞:人工智能;算法;數字倫理;倫理規制

      伴隨著人工智能技術的快速發展和應用場景的不斷拓展,算法驅動的人工智能正在日益深刻地嵌入人類社會的不同領域中。以偏好推送、問答機器人和人臉識別為代表的人工智能技術已經成為社會生活的重要組成部分。但與技術快速迭代形成鮮明對比的是,對于人工智能技術的倫理規制長期以來始終處于廣泛的爭議之中。

      最近,美國多家主流媒體都報道了谷歌工程師Blake Lemoine由于聲稱其團隊開發的人工智能聊天機器人LaMDA具有人類情感和意識而被停職的新聞。[1]雖然谷歌立即出面澄清沒有證據表明LaMDA已經具有人類意識,但人工智能技術的發展使其越來越深刻地嵌入人類社會之中,由此帶來的主體性邊界模糊和權責歸屬問題,對人工智能倫理的規制提出了新的挑戰。

      人工智能的道德邊界爭論

      事實上,這并不是人工智能聊天機器人第一次引發爭議。人工智能機器人在學習過程中形成價值判斷的情況已經屢見不鮮。2017年,微軟在Twitter推出人工智能聊天機器人Tay。它通過與Twitter網友對話進行自我學習,進而通過模仿其他網友的內容來接近人類的表達。但在上線短短一天的時間內,Tay就演變成為一個滿嘴臟話,集種族主義、父權歧視、仇視猶太人于一身的機器人。由于事態瀕臨失控,微軟不得不將其下線。無獨有偶,2020年韓國推出的少女聊天機器人Luda遭到了用戶持續的語言性騷擾,以至于Luda迅速學會了歧視少數群體、女性和殘疾人的表達。

      除了價值判斷,人工智能在決策過程中的倫理問題也廣受關注。歐萊雅和可口可樂等跨國公司近幾年的招聘中都引入了人工智能系統參與簡歷審核和候選人初篩;亞馬遜則很早就將人工智能運用于倉庫員工的管理中,通過人工智能自動化地跟蹤員工工作狀況,一旦發現倉庫員工長時間沒有接觸包裹或者處理速度變慢,就會記錄員工效率過低。亞馬遜的人工智能進一步根據算法計算出所有員工的工作效率,并對生產效率指標多次不達標的員工“一鍵裁員”。這一事件的披露在美國也引發了強烈的爭議。

      計算機倫理學創始人Moore將倫理智能體分為四類,當前人工智能的發展水平尚且停留在“倫理影響智能體”這一初期階段,它對社會和環境產生倫理影響但無法自主形成倫理決策與判斷。但當人工智能越來越多地參與到價值判斷和社會決策的領域并產生顯著的社會影響,這種人機邊際的模糊會產生更嚴峻的權責歸屬不明確問題。[2]人工智能產品在道德和情感方面具有人格化特征,但又區別于真人。[3]那么進行價值判斷和社會決策的人工智能應該僅被當作執行任務的行為主體,還是可以被當作承擔責任的道德主體?人工智能介入人類社會并產生社會后果的過程,帶來了關于個體、技術和道德關系的再思考。

      技術與法律:數字倫理規制的兩種困境

      雖然對人工智能倫理進行有效規制已經逐步成為共識,但現實層面的規制仍然面臨著技術與法律兩個維度的困境。在技術層面,對于人工智能倫理的規制會陷入技術黑箱帶來的透明性陷阱中。由于算法具有自主學習和調整的能力,人工智能算法運行中可能出現開發者也無法預測和解釋的學習和輸出過程。有學者認為人工智能在面向社會提供服務或進行決策時,應當賦予用戶獲得算法解釋的權利(right to explanation)。[4]但在實踐層面,人工智能算法作為開發者獨特的知識產權和互聯網企業核心的商業機密,在私人所有的前提下幾乎不可能通過公開源代碼或者加入第三方審查機制的方式進行規制。

      這導致了對人工智能決策監管的技術空白。社交媒體用戶無法解釋推送為何會將某些信息置于優先的位置,亞馬遜的員工也無法解釋自己是因為什么行為不當而被判定效率低下和消極怠工。技術中立性成為掩蓋技術的社會嵌入帶來現實問題的遮羞布,但一旦人工智能代替人進行社會判斷,其中蘊含的倫理公正性必然會被質疑。精準推送的偏向會對輿論環境和公共議題走向造成影響,企業使用人工智能進行員工招聘和監管則可能蘊含著實用主義主導的“量化社會”思潮限制勞動者基本權益的問題。

      在法律的層面,人工智能能否作為具有自主判斷力并能夠為其社會判斷負責的道德主體,是法律監管層面尚存的空白。人工智能的出現沖擊了已有法律秩序,因為傳統的法律人格包括自然人主體與法律擬制主體。自然人主體與法律擬制主體的最大差別在于,法律人格伴隨自然人終生,而法律擬制人格需要經過法律規定程序判定后才擁有享受權利、履行義務的資格。人工智能既不屬于自然人主體,也不屬于現有的法律擬制主體范圍,這就導致它理論上不需要為其價值判斷和社會決策承擔任何后果。

      面對這樣的困境,有學者提出人工智能承擔行為能力的后果有限,因此具有有限的法律人格,[5]還有學者試圖將有限人格論進一步延伸為人與人工智能之間不同物種之間的主體間性問題。[6]但無論哪種視角都沒有完全擺脫折衷主義帶來的現實治理困境。在人工智能的有限人格之外,誰能夠為其造成的現實問題承擔責任?諸如亞馬遜將裁員的決策權力交于人工智能,又是否符合其有限人格的法律權屬地位?考慮到人工智能正在嵌入社會結構的各個領域,一種在倫理價值層面權責相符的法律規制原則,需要得到更進一步的重視。

      訴諸共識原則:人工智能的倫理規制進路

      蒙特利爾人工智能倫理研究所長期關注人工智能技術所帶來的倫理爭議和治理問題。研究所每年出版一份《人工智能倫理道德報告》,對人工智能使用的倫理規制進行追蹤。2022年的報告指出當前人工智能的倫理規制陷入“過多的宏觀原則和缺乏的操作工具”并行的問題中。公眾和輿論一方面展現出對新技術的迷戀,另一方面不得不面對技術失控帶來的恐懼。[7]《人工智能倫理道德報告》認為,相較于籠統和宏觀的原則,負責任的人工智能倫理需要建立一套具體而具有明確操作性的守則,并包含以下幾個基本的原則:

      (一)基于人類的道德框架。無論人工智能在技術層面有怎樣的發展,它最終服務于人類社會時仍然需要遵循人類社會的道德框架和準則。長期以來對于人工智能道德主體性的爭論可能對于推動相應的治理進程并無幫助,因為人工智能在倫理層面不具有超越人類道德原則的獨特性和優越性。亞馬遜利用人工智能監督員工并決定裁員名單的舉措中,并不能因為人工智能的介入而免除亞馬遜在制定這項規則時的道德責任。因此,人工智能企業和開發團隊作為技術的開發者,需要在遵循基本道德準則的基礎上進行技術的開發,并為其后果承擔道德和法律責任。

      (二)多元化數據學習。正如前文提到的,來自不同國家研究機構的多個具有自主學習能力的人工智能聊天機器人,都在經過一段時間“自然”訓練后開始發表種族歧視和仇恨言論,這引發了研究者對于人工智能訓練數據來源的思考。人工智能聊天機器人在社交媒體接受了大量偏激且負面的信息,才使其在自主學習和訓練中無意識地走向了違背社會倫理底線的問題,因此,在對人工智能進行訓練時也應該更多地吸納不同來源和類型的數據,使得人工智能的認知和表達更接近社會的普遍水準,而非某些偏激的極端狀態。

      (三)公共部門的算法問責。作為人工智能算法的重要治理途徑,政府和公共部門對算法進行問責正在成為數字治理的潮流。歐盟已在今年4月通過了《數字服務法》,對推薦算法透明度提出更高的要求。我國也在去年通過了《關于加強互聯網信息服務算法綜合治理的指導意見》,要求在三年內建立健全對于人工智能算法的監督管理機制。相關法律法規的逐步完善意味著對于人工智能問題的治理已經逐漸走上“快車道”,公共部門的介入也使得人工智能的倫理規制成為重要的社會公共議題。

      作為技術發展的直接后果,人工智能正在成為人類社會諸多領域的重要利益攸關方。面對其技術形態的不斷迭代,各國政府、互聯網企業和用戶需要達成一套完整且具有操作性的守則,在訴諸共識的基礎上實現人工智能技術的有序向善發展。

      參考文獻:

      [1]Tiku, N. The Google engineer who thinks the company’s AI has come to life[EB/OL]. (2022-06-11). https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/.

      [2]Moor J H . The Nature, Importance, and Difficulty of Machine Ethics[J]. IEEE Intelligent Systems, 2006.

      [3]張洪忠,段澤寧,韓秀. 異類還是共生:社交媒體中的社交機器人研究路徑探討[J].新聞界, 2019(02): 10-17.

      [4]Goodman B , Flaxman S . European Union regulations on algorithmic decision-making and a "right to explanation"[J]. Ai Magazine, 2016(38)3: 50-57.

      [5]袁曾. 人工智能有限法律人格審視[J]. 東方法學,2017(05):50-57.

      [6]郭小安,趙海明.作為“政治腹語”的社交機器人:角色的兩面性及其超越[J]. 現代傳播(中國傳媒大學學報), 2022,44(02):122-131.

      [7]Gupta A, Wright C, Ganapini M B, et al. State of AI Ethics Report (Volume 6, February 2022)[J]. arXiv preprint arXiv:2202.07435, 2022.

      (編譯者為清華大學人文學院寫作與溝通教學中心教師)

    來源:青年記者2022年7月上

    編輯:范君

    张开腿乖男医生检查h
    <blockquote id="wemmu"></blockquote>
  • <samp id="wemmu"></samp>
    <label id="wemmu"><label id="wemmu"></label></label>
  • <samp id="wemmu"><label id="wemmu"></label></samp><samp id="wemmu"><s id="wemmu"></s></samp>