近期,歐盟發表了其可信任AI導則。之前,有關合乎道德的IEEE設計舉措(IEEE-EAD)報告首版:《利用自主和智能系統優化人類福祉的愿景》出臺。
這兩份報告(一份來自歐洲聯盟,另一份來自國際領先的專業工程機構之一)產生的影響極大。工程師負責最終以滿足倫理原則和人類價值觀的方式實施人工智能,但只有決策者、監管機構和整個社會才能設定和實現這一目標。
基于公共磋商的結果,歐盟導則提出了實現可信任AI的七個必要條件(但還不夠),以及實現這些條件的方法和檢查這些條件的評估列表。
這些要求包括:
·人力機構和監督
·技術穩健性和安全性
·隱私和數據治理
·透明度
·多樣化、非歧視和公平
·社會和環境福祉
·問責制
IEEE-EAD報告是國際范圍內自下而上做出的真正努力,得益于全球各地數百名專家的合作。
它不僅提供了需求和原則列表,還提供了許多不同主題的深入背景。
IEEE-EAD在努力定義道德智能和自主技術的未來標準,確保人類福祉的優先次序。
歐盟將在未來幾個月通過公開召集感興趣的人士試行其評估清單。
正如數學家和哲學家Norbert Wiener在1960年所寫的:“我們最好確信,采用機器的目的是我們真正渴望的目的。”此外,我們需要確保制定保障,機器人維修,確保算法及其環境發展時目標保持不變。
確保道德目標一致,不僅意味著人們可以信任系統的設計結果,還涉及我們的設計方式、設計目的以及參與設計的人。這是幾代人的作品。這是一項不斷進取的工作。
顯然,錯誤不可避免,KUKA機器人維修,災難將會發生。我們需要從錯誤中吸取教訓,為了更好的結果不斷嘗試。
忽視我們的責任不是一種選擇。AI系統是由我們決定、設計、實現和使用的人工制品。我們對此負責。
當我們失敗時,我們有責任再次嘗試;當我們看到偏差時,www.twshmhelmet.com,我們有責任觀察和譴責;我們有責任被告知和告知,有責任重建和改善。
歐盟和IEEE提出的原則是政府、民間組織、私營企業、智庫和研究團體需遵循的多種原則中的最新一套原則。然而,關鍵并不在于檢查一個系統是否符合你最喜歡的原則清單。
這些原則不是勾選一次就忘記的清單或方框。這些原則是行動的方向。對AI智能系統來說,它們是行為準則,但最重要的是,對我們來說也是行為準則。
我們需要公平、非歧視、負責任、確保自己和他人的隱私并以社會和環境福祉為目標。道德準則是為我們制定的。人工智能系統必須遵守。
未來任重道遠。我們可以做到,也必須做到,我們負有責任。