2019年9月,美國眾議院監(jiān)督和政府改革小組委員會(House Oversight and Government Reform Subcommittee)信息技術(shù)組主席Will Hurd和首席成員Robin Kelly簽發(fā)了題為《Rise of the Machines—Artificial Intelligence and its Growing Impact on U.S. Policy》(機器崛起:人工智能及對美國政策不斷增長的影響)的AI白皮書。
文中小組委員會總結(jié)了關(guān)于人工智能監(jiān)督和聽證會的經(jīng)驗教訓,并提出了前瞻性的建議。小組委員會分析了在AI應(yīng)用方面面臨的挑戰(zhàn),文中主要關(guān)注失業(yè)、隱私、偏見和惡意使用4個問題領(lǐng)域并提出了針對性建議。
現(xiàn)由學術(shù)plus編譯全文,僅供參考。
文章版權(quán)歸原作者所有,觀點不代表本機構(gòu)立場。
機器崛起:人工智能及對美國政策不斷增長的影響
作者:plus評論員 張濤
來源:https://oversight.house.gov
一、AI所面臨的挑戰(zhàn)
眾議院監(jiān)督和政府改革小組委員會的聽證會得出結(jié)論,AI面臨不同種類的挑戰(zhàn)。本文主要解決聽證會提出的以下問題。
1、勞動力(失業(yè)問題)
一個重要問題就是AI驅(qū)動的自動化可能會導致失業(yè)。2017年12月,麥肯錫的報告稱由于AI驅(qū)動的自動化,美國和德國大約有1/3的勞動力可能需要找新的工作。2013年牛津大學一份研究稱AI技術(shù)對美國勞動力的影響可能更高,大約有47%的美國人面臨失業(yè)的風險。除此之外,AI還有可能帶來財富不平等的問題。
但聽證會和其他研究表明,AI也有改善和增加工作機會的空間。比如,經(jīng)濟合作與發(fā)展組織(Organisation for Economic Co-operation and Development,OECD)2019年3月的一份報告就稱OECD成員國有14%的工作面臨自動化的風險。
所有這些研究的共同點是在指定經(jīng)濟政策時必須考慮到美國人在采納人工智能技術(shù)的同時所面臨的不確定的工作前景,以及需要增加對教育和工人再培訓方面的投資。因此,應(yīng)鼓勵聯(lián)邦、州和地方政府與教育工作者、雇主、雇員、工會和其他利益相關(guān)者合作,制定有效的戰(zhàn)略以改善美國工人的教育、培訓和再培訓,使其在人工智能驅(qū)動的經(jīng)濟中更具競爭力。聯(lián)邦政府也應(yīng)該以身作則,KUKA機器人維修,在教育和培訓方面投入更多,使其現(xiàn)有和未來的勞動力獲得必要的人工智能技能。
2、隱私
AI技術(shù)依賴于算法,而算法需要大量的數(shù)據(jù)來決定如何響應(yīng)這些新的輸入。因為AI技術(shù)需要大量的數(shù)據(jù),因此聽證會中多次將個人隱私視為潛在挑戰(zhàn)。例如,人工智能專家Ben Buchanan博士就消費者數(shù)據(jù)用在人工智能系統(tǒng)中所面臨的各種隱私風險進行了證明。這些數(shù)據(jù)有被黑客竊取的風險,也有可能被收集或有權(quán)限訪問的人濫用以及二次使用的風險。
2017年美國最大的征信機構(gòu)Equifax數(shù)據(jù)泄露事件就應(yīng)證了研究人員的擔憂。黑客成功入侵了系統(tǒng)后,獲取了大約1.45億美國公民個人數(shù)據(jù)的訪問權(quán)限。這些數(shù)據(jù)包括Equifax收集的用戶敏感信息,www.twshmhelmet.com,有社會安全碼、生日、地址、駕駛證號等。
涉及隱私問題的另一個例子是智能音箱(即使用基于語音的數(shù)字助理)。智能音箱為了能夠響應(yīng)用戶的命令,需要隨時監(jiān)聽,那么非命令期間聽取的數(shù)據(jù)怎么辦呢?執(zhí)法部門已經(jīng)開始要求科技公司為刑事案件錄音。但這也提出了一個新的問題,即如何使一直處于監(jiān)聽狀態(tài)的設(shè)備做到收集消費者的證據(jù)呢?
為了解決人工智能驅(qū)動的技術(shù)帶來的各種隱私挑戰(zhàn),Buchanan博士稱企業(yè)需要在人工智能系統(tǒng)的設(shè)計和開發(fā)中采取更嚴格的保障措施。但消費者技術(shù)協(xié)會主席Gary Shapiro認為針對不同的AI應(yīng)用應(yīng)該有不同的管理方式,而不能將所有的AI應(yīng)用放在同一個AI隱私管理規(guī)范之下。一些人工智能產(chǎn)品和應(yīng)用程序可能已經(jīng)受到了聯(lián)邦隱私法或聯(lián)邦貿(mào)易委員會的約束,例如健康保險流通與責任法案(Health Insurance Portability and Accountability Act)、兒童在線隱私保護法案(Children’s Online Privacy Protection Act)、Gramm-Leach-Bliley法案。
隨著人工智能系統(tǒng)和應(yīng)用程序越來越多地收集和使用個人數(shù)據(jù),更加引起人們對隱私問題的擔憂。因此,聯(lián)邦機構(gòu)應(yīng)審查聯(lián)邦隱私法律、法規(guī)和司法判決,以確定它們?nèi)绾我呀?jīng)適用于其管轄范圍內(nèi)的AI產(chǎn)品,并在必要時更新現(xiàn)有法規(guī)(加入AI的管理內(nèi)容)。
3、偏見
人們越來越依賴AI技術(shù)來做出關(guān)于個人的決策,這也加劇了人們對這項技術(shù)準確性的擔憂,特別是在政府使用該技術(shù)時。電子隱私信息中心(EPIC)在向小組委員會發(fā)表的一份聲明中解釋道:“當政府使用AI來制定關(guān)于人們的決策時,增加了關(guān)于問責制、正當程序和公平性的基本問題。”
AI非常依賴數(shù)據(jù)。如果數(shù)據(jù)本身是不完整的、存在偏見或存在其他形式的偏差, AI系統(tǒng)就可能存在不準確的風險。由于AI系統(tǒng)依賴于越來越大量的數(shù)據(jù),包含偏見(差)的數(shù)據(jù)集可能會增加風險。如果AI系統(tǒng)是通過有偏見數(shù)據(jù)訓練的,那么AI系統(tǒng)產(chǎn)生的結(jié)果應(yīng)該是有偏見的。
比如,2016年P(guān)roPublica調(diào)查了一些法院使用“風險預(yù)測工具”用于刑事判決和保釋聽證會的情況。調(diào)查結(jié)果顯示算法和系統(tǒng)是有偏見和不準確的。非洲裔美國人被標記為高風險的人數(shù)是白人的兩倍,但這些被標記為高風險的非洲裔美國人之后并沒有再犯罪。隨著AI技術(shù)應(yīng)用于金融、法律、醫(yī)療等行業(yè),這些偏見可能會被AI技術(shù)放大,最后給人們帶來傷害。
聽證會上,其他利益相關(guān)方也明確指出,解決AI系統(tǒng)中的偏見或潛在偏見的最有效方法之一就是提高這些系統(tǒng)使用的透明度:
AI系統(tǒng)應(yīng)該是可檢查的。算法用于構(gòu)建模型的數(shù)據(jù)應(yīng)該是適宜的。算法做出的決策應(yīng)當是可檢查的。換句話說,當我們使用這些算法時,應(yīng)該要能夠解釋每個算法的輸出。
解決AI中的偏見的解決方案也是跨領(lǐng)域的。例如,埃森哲最近推出了一種“AI fairness tool(人工智能公平工具)”,該工具使用AI來檢查數(shù)據(jù)如何影響模型中的變量,如年齡、性別和種族等。人工智能相關(guān)的非政府研究機構(gòu)也在研究AI偏見和人工智能。簡而言之,解決AI系統(tǒng)中的偏見和潛在偏差將需要在這些系統(tǒng)做出有關(guān)個人的相應(yīng)決策時提高透明度。
聯(lián)邦、州和地方機構(gòu)在使用AI系統(tǒng)做出相應(yīng)決策時應(yīng)確保支持這些系統(tǒng)的算法是可審計和可檢查的。此外,鼓勵聯(lián)邦、州和地方政府更積極地與學術(shù)機構(gòu)、非營利組織和私營企業(yè)合作,討論如何識別人工智能系統(tǒng)中的偏見,以及如何通過技術(shù)更好地消除偏見和如何解釋偏見。
4、AI的惡意使用
聽證會還強調(diào)了預(yù)防AI的惡意使用的必要性。OpenAI 2019年初發(fā)布的一份報告稱,除非制定足夠的防御措施,否則人工智能的進展將導致網(wǎng)絡(luò)攻擊“更有效、更有針對性、更難以追溯、AI系統(tǒng)中的漏洞也更可能利用”。該報告的結(jié)果與網(wǎng)絡(luò)安全公司Cylance 2017年的調(diào)查結(jié)果一致。Cylance的調(diào)查顯示, 62%的信息安全專家認為,人工智能將于明年被用于網(wǎng)絡(luò)攻擊中。
AI的計算能力使其能夠以指數(shù)級增加網(wǎng)絡(luò)攻擊的嚴重性。AI惡意使用特別值得特別關(guān)注的三個方面是:政治安全、物理安全和數(shù)字安全。這三個領(lǐng)域之間的共同主題是AI擴大了風險等級。比如,網(wǎng)絡(luò)攻擊可以在一瞬間影響更多的設(shè)備、人和企業(yè),從而破壞數(shù)字安全。事實上,美國已開始使用AI應(yīng)對網(wǎng)絡(luò)攻擊。
比如過去幾年俄羅斯發(fā)起的虛假信息宣傳活動。有了AI技術(shù)的推動,含有“deepfake”技術(shù)偽造的視頻的“假新聞”可能會更容易讓人相信。通過數(shù)據(jù)AI可以精確地識別那些最易受到虛假信息影響的人。這種能力可能會極大擴大敵對民族國家破壞另一個國家政治體系的虛假宣傳活動中受影響的人數(shù)。
→Deepfakes變臉術(shù) 竟成為美國國家安全的新威脅
AI系統(tǒng)也可能危及物理安全。例如,來自美國大學的一組研究人員展示了黑客如何通過一些簡單的貼紙使自動駕駛車輛錯誤識別路標,而這些貼紙本是無害的。
在考慮未來如何積極利用AI時,政府還必須考慮該技術(shù)被用于傷害個人和社會的情況,并為如何減輕這些危害做好準備。
二、政府如何回應(yīng)AI?
一般來說,美國政府對新興技術(shù)采取不干涉方式。比如,在20世紀90年代,政府對互聯(lián)網(wǎng)的首選政策是支持私人行動而不是采取公共監(jiān)管。在此期間,雖然國會和州立法機構(gòu)通過了若干關(guān)于商業(yè)、內(nèi)容和競爭的法律,但都側(cè)重于為新興網(wǎng)絡(luò)制定合理的上層建筑,而不是對其發(fā)展進行微觀管理。克林頓政府采取了“有益忽視(salutary neglect)”的政策,克林頓總統(tǒng)命令政府“不做任何破壞新興技術(shù)提升普通美國人生活的能力的事情”。
小組委員會的建議是聯(lián)邦政府對任何潛在的人工智能進行監(jiān)管應(yīng)該考慮上述歷史。政府應(yīng)該首先評估對公共安全或消費者帶來的風險是否適用于現(xiàn)有的監(jiān)管框架,如果是,應(yīng)考慮現(xiàn)有框架是否能夠充分應(yīng)對帶來的風險。如果這些風險超出現(xiàn)有的監(jiān)管框架,則應(yīng)謹慎考慮是否需要修改或增加以更好地應(yīng)對人工智能帶來的風險。
在廣泛認可的衡量AI產(chǎn)品和應(yīng)用安全和網(wǎng)絡(luò)信息安全的標準應(yīng)該優(yōu)先于新的監(jiān)管措施。一個共同的分類方法也有助于提高清晰度,并能夠準確計算人工智能的技能和用途。美國國家標準與技術(shù)研究院(NIST)是制定標準的關(guān)鍵角色,IEEE(電氣和電子工程師協(xié)會)關(guān)于自主和智能系統(tǒng)倫理的全球倡議也起著重要的作用。人工智能指數(shù)(AI Index)是斯坦福大學“人工智能百年研究”的一部分,收集了有關(guān)人工智能的數(shù)據(jù)以衡量其進展,這對于提供歷史背景的標準制定至關(guān)重要。聯(lián)邦政府應(yīng)該與公共機構(gòu)、學術(shù)和私營企業(yè)一起協(xié)作制定出衡量人工智能產(chǎn)品和應(yīng)用安全性的標準。
在沒有監(jiān)管的情況下,聯(lián)邦政府也有切實可行的方式促進人工智能的創(chuàng)新。比如,政府擁有數(shù)千種不同的數(shù)據(jù)集,這些數(shù)據(jù)集對研究人工智能的研究人員和執(zhí)行任務(wù)的機構(gòu)來說非常有用。這些數(shù)據(jù)集中許多都是公共產(chǎn)品,應(yīng)該向公眾開放。
因此,參議院應(yīng)努力通過眾議院去年通過的“開放政府數(shù)據(jù)法案(OGDA)”。OGDA允許所有非敏感政府數(shù)據(jù)免費向公眾開放。聽證會上,研究人員稱通過更加開放的數(shù)據(jù)政策,可用加強AI的發(fā)展。如果參議院通過了OGDA,總統(tǒng)應(yīng)盡快簽署成為法律,而主管機關(guān)應(yīng)盡快實施。
聽證會上普遍支持的另一項建議是為研發(fā)提供更多的經(jīng)濟支持。大學和非營利機構(gòu)進行的研究以及企業(yè)的研發(fā)工作是美國成為人工智能領(lǐng)導者的主要原因。為了保持美國在AI領(lǐng)域的領(lǐng)導地位,需要增加國家科學基金會、國立衛(wèi)生研究院、國防高級研究項目機構(gòu)、情報高級研究項目機構(gòu)、國家標準與技術(shù)研究所、國土安全部、國家航空航天局等機構(gòu)的研發(fā)資金。因此,建議聯(lián)邦政府規(guī)定穩(wěn)步增加聯(lián)邦在AI研發(fā)領(lǐng)域的支出。增加資助的另一個好處是能夠招募和支持更多的研究生,庫卡機器人,這些研究生將構(gòu)成未來AI領(lǐng)域的主要人才。