歐盟和美國采取行動解決人工智能倫理問題


歐盟的AIA將是世界上第一個對人工智能的橫向監(jiān)管。
美國和歐盟被數(shù)千英里的大西洋所分割,它們監(jiān)管人工智能的方法同樣廣泛。形勢也是動態(tài)的,美國方面的最新變化將于今天推出 - 大約在歐盟采取重大舉措七周后。
大西洋兩岸的賭注都很高,其影響與確定監(jiān)禁判決和選擇誰被雇用一樣不同。
歐盟的《人工智能法案》(AIA)于12月6日獲得歐盟理事會批準,最早將于3月由歐洲議會審議,該法案將在基于風險的層次結(jié)構下監(jiān)管人工智能應用、產(chǎn)品和服務:風險越高,規(guī)則越嚴格。
如果獲得通過,歐盟的AIA將成為世界上第一個橫向的AIA,涵蓋所有行業(yè)和應用。人工智能的監(jiān)管.
相比之下,美國沒有專門針對 規(guī)范人工智能的使用,而是依靠現(xiàn)有的法律、藍圖、框架、標準和法規(guī),這些法律、藍圖、框架、標準和法規(guī)可以拼接在一起,以指導人工智能的道德使用。然而,雖然企業(yè)和政府可以受到框架的指導,但它們是自愿的,不會為那些在使用人工智能對付他們時受到傷害的消費者提供任何保護。
除了聯(lián)邦行動的拼湊之外,地方和州政府正在制定法律來解決就業(yè)中的人工智能偏見,如紐約市和整個加利福尼亞州,以及科羅拉多州的保險。新聞媒體上沒有出現(xiàn)任何擬議或頒布的地方法律來解決在監(jiān)獄中使用人工智能或監(jiān)獄判決的問題。然而,在2016年,威斯康星州男子埃里克·盧米斯(Eric Loomis)起訴該州六年監(jiān)禁未成功,該判決部分基于人工智能軟件。 《紐約時報》報道.Loomis辯稱,他的正當程序權利受到侵犯,因為他無法檢查或質(zhì)疑軟件的算法。
“我想說我們?nèi)匀恍枰?lián)邦政府的基礎,”DataRobot的全球人工智能倫理學家Haniyeh Mahmoudian告訴EE Times?!皣@隱私的事情,幾乎每個美國人都有權享有,這是聯(lián)邦政府應該照顧的事情。

Elham Tabassi(來源:NIST信息技術實驗室)
最新的國家指南預計將于今天由美國國家標準與技術研究院(NIST)發(fā)布。
NIST的自愿框架旨在幫助美國組織管理可能影響美國個人,組織和社會的AI風險。該框架通過將可信度考慮因素(例如可解釋性和減輕有害偏見)納入人工智能產(chǎn)品、服務和系統(tǒng)來實現(xiàn)這一目標。
“在短期內(nèi),我們想要做的是培養(yǎng)信任,”NIST信息技術實驗室參謀長Elham Tabassi說?!拔覀兺ㄟ^了解和管理人工智能系統(tǒng)的風險來做到這一點,以便它可以幫助保護公民自由和權利,提高安全性,同時為創(chuàng)新提供和創(chuàng)造機會。
從長遠來看,“我們談論框架是裝備人工智能團隊,無論他們主要是設計,開發(fā)或部署人工智能的人,從考慮風險和影響的角度思考人工智能,”NIST研究科學家Reva Schwartz說。

Reva Schwartz(來源:NIST信息技術實驗室)
在NIST框架發(fā)布之前,喬·拜登總統(tǒng)領導下的白宮于10月發(fā)布了“人工智能權利法案藍圖”。它列出了五項原則來指導人工智能的道德使用:
系統(tǒng)應該是安全有效的。
算法和系統(tǒng)不應該歧視。
人們應該受到保護,免受濫用數(shù)據(jù)行為的侵害,并控制他們的數(shù)據(jù)的使用方式。
自動化系統(tǒng)應該是透明的。
選擇退出人工智能系統(tǒng)以支持人為干預應該是一種選擇。
拜登的輕監(jiān)管方法似乎遵循 輕觸調(diào)節(jié) 受到他的前任的青睞。
不要等待立法
美國沒有人工智能法律,因為技術變化如此之快,以至于立法者無法確定足夠長的時間讓他們制定立法,律師事務所DLA Piper的合伙人Danny Tobey告訴EE Times。

丹尼·托比(來源:歐華律師事務所)
“每個人都在制定框架,但很少有人會制定你可以計劃的硬性規(guī)定,”他說。“我們被承諾了人工智能權利法案,但我們得到了一個沒有法律效力的'人工智能權利法案藍圖'。
托比認為,全球監(jiān)管提案圍繞第三方審計和影響評估保持一致,以測試基于人工智能的應用程序的安全性、非歧視性和道德人工智能的其他關鍵方面。他說,這些是公司已經(jīng)可以使用的工具。
“解決方案是讓公司甚至在立法最終確定之前就開始測試這些預期標準的人工智能技術,旨在構建面向未來、合規(guī)的人工智能系統(tǒng),以預測即將到來的法規(guī),”他說。
歐盟至少有一家公司與托比的想法一致:總部位于荷蘭的恩智浦半導體公司已經(jīng)開發(fā)了自己的公司。 人工智能倫理倡議.
美國需要特定的人工智能法律嗎?
難道美國已經(jīng)有了保護公眾免受人工智能不道德使用所需的法律嗎?
9月,美國證券交易委員會主席加里·根斯勒(Gary Gensler)在麻省理工學院人工智能政策論壇峰會上談到了這個問題,探討了圍繞人工智能部署的政策挑戰(zhàn)。
“通過我們的立法機構,我們通過了保護公眾的法律,”他說?!斑@是安全,健康,投資者保護,金融穩(wěn)定。這些仍然是久經(jīng)考驗的真正公共政策。
他說,與其認為我們需要一部新法律,因為我們有一個新的工具——人工智能——立法者和其他人應該關注現(xiàn)有法律的適用方式。
美國證券交易委員會著眼于現(xiàn)有的投資者保護法,而銀行業(yè)的必然結(jié)果是《平等信貸機會法》?!豆阶》糠ā繁Wo人們在申請抵押貸款時免受歧視。
自我監(jiān)管是答案嗎?
Diveplane的領導者是人工智能驅(qū)動的商業(yè)和國防軟件開發(fā)商,他們想要拜登的藍圖,歐盟的AIA等等。

邁克·卡普斯(來源:潛水飛機)
“這將有助于保護消費者,”Diveplane的總法律顧問兼首席法務官Michael Meehan告訴EE Times。“人們認為這與公司可能想要的背道而馳。但事實是,包括潛水飛機在內(nèi)的大多數(shù)公司都需要指導。
米漢指出,這兩個政府都沒有在人工智能法律或法規(guī)中規(guī)定“安全港”來降低用戶的風險。
安全港是法律中的一項規(guī)定,如果滿足某些條件,則給予保護,免于懲罰或承擔責任。例如,如果一個正確實施的、基于實例的人工智能貸款審批系統(tǒng)檢測到偏見,它可以標記問題以供人工審查。
Diveplane首席執(zhí)行官邁克·卡普斯(Mike Capps)也歡迎監(jiān)管,但他也是該行業(yè)自我監(jiān)管的支持者。
為了說明原因,他指出了美國的患者隱私法。1996 年健康保險流通與責任法案 (HIPAA) 為從醫(yī)療記錄中擦除識別信息的用戶提供了一個安全港。不幸的是,將清理過的數(shù)據(jù)庫與另一個數(shù)據(jù)寶庫交叉引用可以幫助梳理出應該匿名的人的身份。
這可能是20世紀立法者沒有預料到的。
“如果你對當今計算機的工作方式設定一些硬性的東西,你就沒有能力適應......當你寫它時不存在的技術,“卡普斯說。
根據(jù)其網(wǎng)站,這種想法促使Diveplane共同創(chuàng)立了數(shù)據(jù)與信任聯(lián)盟,這是一個非營利性聯(lián)盟,其成員“學習,開發(fā)和采用負責任的數(shù)據(jù)和人工智能實踐”。卡普斯是聯(lián)盟領導委員會的成員,與NFL,CVS Health和IBM等實體的代表一起。
該小組正在制定道德人工智能的標準。
“這些規(guī)則將繼續(xù)改變和發(fā)展,因為它們必須這樣做,”卡普斯說?!拔視阉鼘懗煞蓡?不,我肯定不會,但我肯定會把它看作是一個例子,說明如何建立一個靈活的系統(tǒng)來最大限度地減少偏見。
Mahmoudian表示,隨著新數(shù)據(jù)的出現(xiàn),歐盟AIA有語言重新審視分配給申請的風險級別。她說,這在Instagram這樣的案例中很重要,例如,Instagram曾經(jīng)被認為是無害的,但在發(fā)病幾年后被證明會對青少年的心理健康產(chǎn)生負面影響。
本文最初發(fā)表于 電子電氣時報.
Ilene Wolff是一名自由撰稿人,在技術和工程方面擁有豐富的經(jīng)驗。她為各種出版物做出了貢獻,包括《智能制造》雜志、《制造工程》雜志、《安娜堡觀察家》、《DBusiness》雜志和《克萊恩的底特律商業(yè)》。
責任編輯:David
【免責聲明】
1、本文內(nèi)容、數(shù)據(jù)、圖表等來源于網(wǎng)絡引用或其他公開資料,版權歸屬原作者、原發(fā)表出處。若版權所有方對本文的引用持有異議,請聯(lián)系拍明芯城(marketing@iczoom.com),本方將及時處理。
2、本文的引用僅供讀者交流學習使用,不涉及商業(yè)目的。
3、本文內(nèi)容僅代表作者觀點,拍明芯城不對內(nèi)容的準確性、可靠性或完整性提供明示或暗示的保證。讀者閱讀本文后做出的決定或行為,是基于自主意愿和獨立判斷做出的,請讀者明確相關結(jié)果。
4、如需轉(zhuǎn)載本方擁有版權的文章,請聯(lián)系拍明芯城(marketing@iczoom.com)注明“轉(zhuǎn)載原因”。未經(jīng)允許私自轉(zhuǎn)載拍明芯城將保留追究其法律責任的權利。
拍明芯城擁有對此聲明的最終解釋權。