醫(yī)患矛盾如何解?美國人請來機器人調(diào)解員幫忙
機器人可以在感情變得復(fù)雜的時候進(jìn)行倫理建議。
最近關(guān)于機器人和倫理的討論大多圍繞著自動駕駛汽車是否會決定碾過最近的小貓,或者是離它稍遠(yuǎn)一點的裝滿小狗的籃子,或者類似那樣的事情。機器人能否在遇到新情況時做出道德決定,這是很多人仍在研究的問題,但在規(guī)則更清晰的情況下,機器人更容易做到合乎道德,KUKA機器人維修,同時也不太可能碾過可愛的動物。
上個月,喬治亞理工學(xué)院的研究人員發(fā)表了一篇論文,題為在醫(yī)患關(guān)系中,機器人調(diào)解員的道德管理者。他們的想法是,機器人將成為我們?nèi)粘I畹囊徊糠郑鼈儽热祟惛瞄L密切關(guān)注事物,而且不會分心或無聊,并且一直會如此。因此,對倫理問題有理解的機器人將能夠觀察病人和看護(hù)人之間的互動,當(dāng)他們發(fā)現(xiàn)事情并沒有按照應(yīng)有的方式進(jìn)行時,他們就會進(jìn)行干預(yù)。這很重要,我們需要它。
在美國,大約有一百萬人患有帕金森癥。像外骨骼和機器人伴侶這樣的機器人系統(tǒng)已經(jīng)開始幫助人們進(jìn)行身體康復(fù)和情感支持,但我們還需要一段時間才能讓那些有能力為帕金森患者提供他們所需幫助的機器人。與此同時,病人嚴(yán)重依賴于醫(yī)護(hù)人員,這對雙方來說都是一個挑戰(zhàn)。帕金森癥對人與人之間的互動尤其棘手,因為肌肉控制的減少意味著患者常常難以通過面部表情來表達(dá)情感,這可能會導(dǎo)致誤解或更糟糕的事情。
為了測試機器人調(diào)解者是否能在此類案件中提供幫助,喬治亞理工學(xué)院的研究人員JaeeunShim、RonaldArkin和MichaelPettinati培養(yǎng)出了一位干預(yù)倫理的管理者(IEG)。它基本上是一套算法,對特定的道德規(guī)則進(jìn)行編碼,并決定在不同的情況下該怎么做。在這種情況下,IEG使用音量和面部跟蹤等指標(biāo)來評估在患者與護(hù)理者的互動中人的尊嚴(yán)是否因為他人的不當(dāng)行為而受到威脅。如果發(fā)生這種情況,IEG規(guī)定機器人應(yīng)如何以及何時進(jìn)行干預(yù)。
為了體現(xiàn)他們的IEG,研究人員使用了Nao人形機器人,它具有良好的感知能力(一個麥克風(fēng)陣列和攝像頭),可以進(jìn)行語音合成(用于干預(yù))。然后,他們在兩個研究生之間進(jìn)行了模擬的、腳本化的互動,KUKA機器人示教器維修,來觀察機器人會做出怎樣的反應(yīng):
在項目的最后一部分,研究人員招募了一群人(可能會使用該系統(tǒng)的老年人)來觀察這些互動,并描述他們對這些互動的反應(yīng)。這是一小群參與實驗的人(9個,平均年齡71歲),但在這個階段,IEG仍然是一個概念驗證,所以研究人員主要對定性的反饋感興趣。根據(jù)研究參與者的回答,研究人員能夠強調(diào)一些重要的信息,比如:
安全是最重要的
我認(rèn)為任何保護(hù)病人的事情都是好事。
這很有價值。在這里,這是合適的,因為它提供了真實的信息,而不僅僅是命令。
機器人不應(yīng)該指揮或判斷
我覺得指揮會讓機器人處在判斷的位置。我認(rèn)為應(yīng)該更多地問這樣的問題,比如我能為你做些什么?但是機器人正在給病人做判斷。我不認(rèn)為這就是我們想要機器人的原因。
他說:病人不應(yīng)該因為離開或忘記做機器人的事情而受到批評。護(hù)理者應(yīng)該更多地參與到這個工作中來。
如果機器人站在那里,‘讓我冷靜下來’,我就會打他。
是的,如果不是因為有人想要打機器人,它就不是一項社會機器人研究。他們認(rèn)為,研究人員把這些反饋牢記在心,www.twshmhelmet.com,并與專家們一起調(diào)整語言,比如把說的話請冷靜變?yōu)樽屛覀兤届o下來,這就好多了。他們還計劃通過整合生理數(shù)據(jù)來更好地檢測病人和護(hù)理者的情緒狀態(tài),從而改善系統(tǒng),提高機器人的干預(yù)精確度。
我們應(yīng)該強調(diào),機器人不可能取代人與人之間的互動以及情感,而且這也不是這個項目的目的。機器人,或一般的人工智能系統(tǒng),是有效的調(diào)解者,確保護(hù)理人員和病人彼此之間有道德基礎(chǔ)和相互尊重,幫助改善關(guān)系,而不是取代他們。