作者:王鐘的
美國社交網站臉書(Facebook)表示,已開發(fā)出能夠辨識輕生念頭的人工智能軟件,即將將之推廣到其它國家。事實上,已有多個研究團隊表示研發(fā)出了能夠預防自殺的人工智能技術,主要方法都是在郵件、論壇、社交媒體平臺中分析含有自殺傾向和想法的語言,讓心理干預人員獲得及時介入的機會。在初步的試驗中,有的機器識別正確率超過了90%。
盡管類似的系統精準性有待驗證,比如會不會“誤傷”原本沒有真實自殺念頭的用戶——有的自殺念頭僅能表現用戶“為賦新詞強說愁”的心理,但是,運用人工智能排查互聯網上的海量數據,無疑是高效率地預防自殺的思路。
首先,“預告式自殺”在互聯網上普遍存在。搜索近期新聞,就能看到許多通過微博等渠道“預告自殺”,得到關注后被成功解救的例子。無論這種網絡自殺預告有多大的信度,只要有一絲真實的可能,就值得社會千方百計拯救。使用人工智能來篩查“自殺預告”,顯然提高了社會自殺信息預警的覆蓋面,減少干預機構的反應時間。
其次,即使一個人不直接表露自殺意愿,人工智能依然有機會分析出其自殺傾向。例如,機器可以統計與自殺相關的詞語的使用頻率,當一段時間內某個人頻繁地使用一些跟自殺相關的詞語時,人工智能就可以發(fā)出預警。機器能夠察覺出語詞間的細微差別,對一個人語言習慣作整體的畫像,而這是感性的人工排查無力實現的。
其實,很多人都產生過自殺的想法,但未必會將自殺付諸實施。機器所能做的是將自殺想法排查出來。盡管自殺念頭和自殺行為之間隔了很大的距離,人工智能的介入仍然很有意義。至少,對整個社會人群的心理健康而言,自殺的想法無疑是一個很重要的指標。當被機器檢測出存在自殺傾向以后,你也許不必被當成自殺者那樣看待,但一定有必要找個心理咨詢師聊聊了。
當然,這樣的人工智能技術能不能有效實施,還取決于數據來源是否足夠豐富。很多表達潛在自殺者內心想法的言語,可能出現在非公開的、受隱私保護的領域,比如不對外公開的朋友圈,需要添加好友才能看到的社交圈,等等。人工智能技術是否有權利突破隱私保護的限制,既是一個倫理問題,也是一個法律問題。即使認為自殺干預很有必要,網絡平臺也應該事先跟用戶簽訂協議,以避免后期產生糾紛。
在科幻作品中,人工智能被賦予了復雜的形象,很多人擔心人工智能會對人類過多的控制。其實,在現實中沒必要那么緊張,人類對人工智能技術有充分的駕馭能力,完全可以將技術用于安全、健康的環(huán)境中。預防自殺可謂是人工智能技術的小試牛刀,大膽設想的話,人工智能可以在人類健康領域扮演更重要的角色。當人工智能發(fā)展到一定水平,人們對健康管理、心理管理的觀念也勢必大不一樣。
當然,人類利用人工智能,并不是完全依賴人工智能。就像自殺干預一樣,機器可以代替人處理大量數據,作初步的篩查,但是想要走進存在心理隱患者的內心,還是需要內涵更豐富的人工對話。無論如何,人工對機器排查作最后的把關,不僅是對人工智能技術負責任,也是對心理健康管理這一公共健康重要領域的負責任。(王鐘的)
·凡注明來源為“??诰W”的所有文字、圖片、音視頻、美術設計等作品,版權均屬海口網所有。未經本網書面授權,不得進行一切形式的下載、轉載或建立鏡像。
·凡注明為其它來源的信息,均轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責。
網絡內容從業(yè)人員違法違規(guī)行為舉報郵箱:jb66822333@126.com