微軟AI主管:AI最大的障礙并非技術(shù),而是道德
據(jù)Axios報道,分管人工智能(AI)與研究業(yè)務(wù)的微軟全球執(zhí)行副總裁沈向洋(HarryShum)日前表示,AI切實地在改善科技產(chǎn)品,但真正的挑戰(zhàn)在于如何令人們信任與接受AI。
所有這些AI方面的技術(shù)進步都很棒,產(chǎn)品也很棒但人們還是對他們存有戒心。
沈向洋是在舊金山接受Axios采訪時做出如上表述的。沈認為,打消人們疑慮的關(guān)鍵,在于健全的道德約束以及擴大AI運營的透明度,微軟正在著力推動這兩方面的發(fā)展。
沈向洋稱,微軟已經(jīng)內(nèi)部設(shè)立了AI道德顧問委員會,并力圖在整個行業(yè)掀起一場相關(guān)議題的大討論。
對于常被科幻小說描繪的AI超越并奴役人類的戲碼,沈倒是并不擔心,真正讓我們在意的是AI技術(shù)的實際應(yīng)用。在沈向洋看來,對AI技術(shù)未來發(fā)展最大的風險,來源于算法偏見,低質(zhì)量的飼料數(shù)據(jù)等等被忽視的道德問題。
什么是算法偏見?
單就文化內(nèi)容的創(chuàng)造角度而言,算法偏見最直接的案例就是今日頭條的內(nèi)容推送。人民日報今年9月三評今日頭條所采用的算法推薦,稱不能讓算法決定內(nèi)容、別被算法困在信息繭房、警惕算法走向創(chuàng)新的反面,并非空穴來風。
在互聯(lián)網(wǎng)產(chǎn)生內(nèi)容并推送到終端用戶的今天,技術(shù)、代碼、算法替代了傳統(tǒng)內(nèi)容分發(fā)過程中專門把關(guān)內(nèi)容的編輯。內(nèi)容能否推送、推送給誰,都是機器說了算,依據(jù)的標準就一條:能不能抓眼球、能不能吸引用戶點開。
這種追求創(chuàng)造流量的模式最終釀成了媒體行業(yè)劣幣驅(qū)逐良幣的現(xiàn)實,單一的標準不僅容易忽視優(yōu)質(zhì)內(nèi)容更為豐富的面向和維度,也增加了把關(guān)內(nèi)容產(chǎn)品的難度和成本。即使事后不斷處罰違規(guī)的內(nèi)容賬號,在利益驅(qū)動下也無法停止劣質(zhì)內(nèi)容的再次生長。
低質(zhì)量的飼料數(shù)據(jù)可能將AI帶入歧途
去年3月,微軟在推特上推出的一款在線聊天人工智能Tay,最初設(shè)計是用來和年輕人自然交流,并在與人交互中學(xué)習與完善自身的語言架構(gòu)。
但是在上線后,Tay很快被人發(fā)現(xiàn)其學(xué)習算法的弱點,被灌輸以大量不良內(nèi)容。結(jié)果是,Tay開始面向數(shù)百萬粉絲發(fā)出帶有不當內(nèi)容的推文。
Tay帶有不當內(nèi)容的推文來源:推特
在被問及這一事件時,沈向洋表示,
這是第一次也希望是唯一一次我得向全公司發(fā)出公開信并致歉。這確實是我和我的團隊的錯誤所致公司內(nèi)外的很多人都問,為什么你們的中文或日文聊天機器人不會出這個問題呢?
每個社會都是不同的,庫卡機器人何服電機維修,我們本應(yīng)該將這種文化敏感性納入考量。
AI道德架構(gòu)的形成,應(yīng)該讓科技巨頭們牽頭嗎?
在被問及未來AI產(chǎn)品是否應(yīng)該被納入監(jiān)管時,沈向洋表示,
對于監(jiān)管部門應(yīng)該多快參與進來我并沒有什么成型的想法我覺得應(yīng)該由行業(yè)內(nèi)部像我們[微軟]這樣的科技龍頭企業(yè)牽頭[探討監(jiān)管的可能性]。
然而,制訂AI的道德準則架構(gòu),機器人維修,很可能也意味著限定了未來AI行業(yè)領(lǐng)域的游戲規(guī)則。人工智能不僅對于頂級人才的研發(fā)水平提出了苛刻的要求;如果沒有海量數(shù)據(jù)的投喂,讓AI在深度學(xué)習的過程中不斷試錯,從提供量變到產(chǎn)生質(zhì)變,就算有人才有天賦也是白搭。
字母表(谷歌母公司),亞馬遜,蘋果,F(xiàn)acebook和微軟這五大科技巨頭,還有他們的中國同行阿里、騰訊和百度,www.twshmhelmet.com,掌控著世界上所有最好的數(shù)據(jù),而若讓行業(yè)自發(fā)討論與推動AI道德的形成,也就意味著科技巨頭們不僅從源頭上控制了AI未來的發(fā)展,更可能對AI行業(yè)的準入門檻和數(shù)據(jù)合規(guī)造成深遠的影響。