<p id="lnlnj"></p>

        <ruby id="lnlnj"><ruby id="lnlnj"><b id="lnlnj"></b></ruby></ruby>

        <p id="lnlnj"></p>

        <pre id="lnlnj"><del id="lnlnj"></del></pre>

          <p id="lnlnj"></p>

          關于AI的道德監管,歐盟與美國用了不同的方式

          2023-04-21 17:35:40

          美國與歐盟被數千英里的大西洋分割開來,它們對人工智能(AI)的監控方式也不同。美國方面的最新變化在1月27日推出——大約是歐盟采取重大舉措后七周的時間。


          大西洋兩岸的風險都很高,在實踐中產生的影響與決定入獄判決和挑選誰被雇用一樣截然不同。


          歐盟的人工智能法案(AIA)已于去年12月6日獲得歐盟理事會批準,最早將于今年3月由歐洲議會審議,該法案將根據風險等級制度對人工智能應用、產品與服務進行監控。風險越高,則規定越嚴格。如果通過,歐盟的AIA將是世界上第一個橫向、跨越所有部門與應用的人工智能監管法案。


          相比之下,美國沒有專門監管人工智能使用的聯邦法律,而是依靠現有的法律、藍圖、架構、標準與法規,可以銜接來引導人工智能在使用的道德層面問題。然而,雖然企業與政府能有架構可遵循,而這些架構是自愿的,當人工智能被用來與消費者對抗時,并沒有為受到傷害的消費者提供保護。


          再新增聯邦行動的補救措施后,地方與州政府頒布法律,以解決人工智能在就業方面的偏誤,如紐約市與整個加州,以及保險業在科羅拉多州的法律。沒有任何提議或頒布的地方法律在新聞媒體上出現,以解決在監獄或監獄判刑中所使用人工智能的問題。然而,根據《紐約時報》的報導,2016年,威斯康星州的一名男子Eric Loomis因與人工智能軟件相關的六年監禁判決而起訴該州,但未獲勝訴。Loomis認為,他程序的正當權利受到侵犯,因為他無法檢查或質疑軟件的算法。


          “我想表達的是,我們仍然需要依靠聯邦政府,”DataRobot全球人工智能倫理學家Haniyeh Mahmoudian告訴《EE Times》?!吧婕半[私的事情,幾乎每個美國人都有權利,這是聯邦政府應該處理的事情?!?/span>


          最新的國家標準已由美國國家標準與技術研究所(NIST)在今年1月27日發布。


          NIST的自主性架構主要在幫助總部設在美國的組織管理可能影響美國個人、組織與社會的人工智能風險。該架構透過將可解釋性與減輕有害偏見等可信度考慮納入人工智能產品、服務與系統。


          “在短期內,我們想做的是培養信任,”NIST信息技術實驗室參謀長Elham Tabassi提到?!岸覀兺高^了解與管理人工智能系統的風險來做到這一點,以便能夠幫助維護公民自由與權利,加強安全‘同時’提供創新與創造機會。


          以長遠的眼光來看,“我們所談論的架構是讓人工智能團隊,無論他們主要是設計、開發還是安排人工智能的人,都能從考慮到風險與影響的角度來思考人工智能,”NIST信息技術實驗室研究科學家Reva Schwartz提到。


          在NIST的架構發布之前,美國總統Joe Biden領導的白宮在去年10月發布了“人工智能權利法案藍圖”。提出了五項原則,以規范人工智能的使用道德:


          • 系統應是安全與有效的;
          • 算法與系統不應該有區別性;
          • 人們應該受到保護,不受濫用數據行為的影響,并能控制其數據如何被使用;
          • 自動化系統應該是透明的;
          • 選擇不使用人工智能系統而采用人類干預應該是一種選項。


          Biden的輕監管方法似乎是直接沿用前任所青睞的輕監管方式。


          不要等待立法


          律師事務所DLA Piper合伙人Danny Tobey告訴《EE Times》,美國沒有人工智能法,因為該技術變化太快,立法者無法將其固定夠長的時間,以起草立法。


          “每個人都在提出架構,但很少有人提出實際的規則,你可以圍繞這些規則進行規劃,”Tobey提到?!拔覀兂兄Z會有人工智能的權利法案,但我們得到的是一個沒有法律效力的‘人工智能權利法案的藍圖’?!?/span>


          Tobey認為,全球的監管建議圍繞著第三方審議與影響評估,用以測試人工智能的應用程序的安全性、非區別性與其他道德人工智能的關鍵層面。他提到,這些是公司已經可以使用的工具。


          他指出:“解決方案是,公司甚至在立法最終確定之前就開始針對這些預期標準來測試人工智能技術,以建立具未來性、合乎人工智能系統,并預測未來的法規?!?/span>


          在歐盟,至少有一家公司與Tobey的想法一致。位于荷蘭的NXP半導體已經制定了自己的人工智能道德新措施。


          美國是否需要特定的人工智能法律?


          難道美國已經有了保護公眾免受人工智能不道德使用的法律?


          2022年9月,美國證券交易委員會主席Gary Gensler在麻省理工學院人工智能政策論壇峰會上談到了這個問題,以探討部署人工智能政策的挑戰。


          “透過我們的立法機構,我們經由法律來保護公眾,”他提到?!斑@些法律是安全、健康、投資者保護與促使金融穩定。而這些仍是久經考驗的公共政策?!?/span>


          Gensler并指出,與其認為我們需要一部新的法律,因為我們有一個新的工具——人工智能——立法者與其他人應該關注現有法律的適用方式。


          美國證券交易委員會參考了現有的投資者保護法,而銀行產業的必然結果是平等信貸機會法案(Equal Credit Opportunity Act);公平住房法(Fair Housing Act)保護人們在申請抵押貸款時不受歧視。


          自我監管是答案嗎?


          Diveplane的領導者想為Biden的藍圖、歐盟的AIA與更多在商業和國防領域提供人工智能驅動的軟件開發商。


          “這將有助于保護消費者,”Diveplane法律顧問與法務總監Michael Meehan告訴《EE Times》?!叭藗冋J為這與公司可能想要的東西相悖。但事實是,大多數公司,包括Diveplane,都希望得到受到指導?!?/span>


          Meehan指出,政府在人工智能法律或法規中都沒有規定“安全港條款”(safe harbors),以減少用戶的風險。


          安全港條款是法律中的一項規定,在滿足某些條件的情況下,給予免于懲罰或責任的保護。例如,如果一個正確的實施、基于實例的人工智能貸款審批系統檢測到的錯誤,可以將此事標記為人工審查。


          Diveplane首席執行官Mike Capps也歡迎監管,但他也是該產業自我監管的支持者。


          為了說明原因,他舉美國的患者隱私法(patient-privacy law)為例。1996年的健康保險可移植性與責任法案(HIPAA)為從醫療記錄中清除識別信息的用戶提供安全港條款,不幸的是,將其已辨識過的數據庫與另一個數據庫交叉比對,可以協助找出那些本該匿名人的身份。


          這可能是20世紀立法者沒有預料到的?!叭绻銓裉斓挠嬎銠C如何工作設定了一些硬性規定,你就沒有能力適應……你寫的時候還不存在的技術,”Capps提到。


          這種想法促使Diveplane共同創立了數據與信任聯盟(Data & Trust Alliance),此為非營利性的聯盟,其成員“學習、開發與采用具有信任性的數據與人工智能實際作法”,據其網站所介紹。Capps是該聯盟領導委員會的成員,其代表來自NFL、CVS Health與IBM等實體企業。


          該組織在制定人工智能的道德標準?!斑@些規則將繼續改變與發展,因為它們需要這樣?!盋apps說到,“我會把它寫入法律嗎?不,我肯定不會,但我肯定會把它作為一個案例,提到如何建立一個靈活的系統來盡量減少偏差?!?/span>


          Mahmoudian提到,隨著新數據的出現,歐盟的AIA有重新審查分配給申請風險等級的語言。她表示,這對于像Instagram這樣案例是很重要的,例如,Instagram曾經被認為是無害的,但在出現的幾年后被證實對青少年的心理健康有負面影響。


          來源:國際電子商情微信公眾號


          亚洲一区二区三区日本久久九

              <p id="lnlnj"></p>

                <ruby id="lnlnj"><ruby id="lnlnj"><b id="lnlnj"></b></ruby></ruby>

                <p id="lnlnj"></p>

                <pre id="lnlnj"><del id="lnlnj"></del></pre>

                  <p id="lnlnj"></p>