對網絡暴力說NO,AI讓仇恨言論無處可躲
從論壇的評論區、社交平臺到網游的聊天區,瘟疫般的仇恨言論游走在互聯網的各個角落。
近日,加拿大麥吉爾大學的HajiMohammadSaleem及其團隊,通過讓AI軟件學習仇恨言論社區成員的說話方式,從而可以自動識別出仇恨言論。他們在一個數據庫中訓練機器學習系統,該數據庫包含了2006年至2016年間Reddit的大部分帖子,庫卡機器人,比之前基于關鍵字標記的系統準確率更高。
因為語言的靈活性和模糊性,識別出真正的仇恨言論并不容易。有時人們只是隨口說一些粗魯的詞匯,并不能表明他們心里就是這么想的。日常生活中,人們會為了各種原因而罵人,甚至朋友之間也會互爆粗口。
目前論壇等網絡平臺獲取仇恨言論的途徑,大都來自用戶舉報。時刻緊盯住那些層出不窮的負面言論,是人力無法完成的。
今年年初,谷歌開發了Perspective軟件,它可以快速地甄別辱罵性評論,便于人工審核。它的工作原理是基于在線評論與被貼上有毒標簽的評論的相似度。但隨后該軟件技術的不成熟開始顯露,評分機制出現了諸多弊端,比如:有的言論是作為一個女孩,你真是太聰明了,它和惡意言論的相似性達到18%;而我喜歡希特勒這樣的言論卻只有2%。
不同于這種基于關鍵字標記的方法,此次加拿大研究人員研發的系統另辟蹊徑。
該系統主要研究針對非洲裔美國人、肥胖人群以及女性的言論。在Reddit或Voat(一個和Reddit類似的網站)上,以這些人群為主題的言論俯拾皆是。該團隊找到其中最活躍的兩種社區:一種社區愛發惡評,一種社區愛發友好的言論。他們鍛煉AI軟件學習這兩種社區成員的言論特點,提高該系統正確識別負面言論的能力。
研究結果證明,該方法比基于關鍵字標記的系統更加精準,并且幾乎不會誤判。有些言論中并不包含常規的侮辱性詞匯,但它也屬于仇恨言論。如果使用以前的方法是識別不了的,但現在就可以了。比如:我沒覺得這有什么問題,動物之間總是互相攻擊。這句話就被該系統標記為仇恨言論,因為這里的動物一詞帶有種族侮辱的含義。
目前該AI軟件能夠成功抓取Reddit平臺上的仇恨言論,但其研究團隊未表示該系統是否在其他平臺,如Twitter或Facebook上也有同樣的水準。
這個方法雖然行得通,但它抓取的結果并不全面,有時還會遺漏。英國巴斯大學的JoannaBryson說。
正如他所言,該系統會錯過一些很明顯的仇恨言論,如黑人都很糟糕等具有明顯的歧視言論。然而對于此類言論,工業機器人維修,基于關鍵詞監測的舊辦法卻能輕而易舉地識別出來。
但是不可否認,這些工具確實能成為平臺管理人員的得力助手。基本上,仇恨言論是一種主觀現象,需要人們發揮自己的判斷力去甄別。一名研究人員說。
,庫卡機器人何服電機維修