蘋果再次卷入涉黃風波。近期有用戶發(fā)現(xiàn),對著蘋果Siri說“發(fā)張照片”,會自動搜索出不雅圖片。不過昨天,記者發(fā)現(xiàn),蘋果已封堵住了這一系統(tǒng)bug。
這兩天,在微博和微信上瘋傳,當對著iPhone或iPad使用語音控制的Siri功能說“發(fā)張照片”時,iPhone或iPad上會自動顯示出6張照片,而且都是內(nèi)容不雅的涉黃照片。這一信息在網(wǎng)上引發(fā)較高關注,不少人進行嘗試,并上傳了自己搜索出的不雅照片。
對這一問題,蘋果官方客服給出的解釋是,對Siri發(fā)出語音指令,Siri會利用蘋果手機系統(tǒng)自帶的搜索功能搜索相關信息,不雅圖片很可能就是這樣自動搜索出來的。蘋果方面承認,根據(jù)“發(fā)張照片”的指令,搜索出不雅照片,可能是系統(tǒng)的bug,并表示會盡快予以處理。
昨天,記者進行了試驗,當對著Siri說“發(fā)張照片”時,出現(xiàn)的提示為“在網(wǎng)上找不到‘發(fā)張’有關的資料”;而對Siri說“照片”時,則會自動打開本機的圖片庫。看起來,這個漏洞已得到封堵。
有網(wǎng)絡技術人士表示,“發(fā)張照片”這一語音命令,本身并沒有涉黃的語義或者暗示,而默認搜索出不雅照片,確實可以說是iOS系統(tǒng)本身存在的問題。不過,Siri本身不會生成照片,能搜索出來,說明這些照片本來就是在網(wǎng)絡上存在的,表明一些網(wǎng)絡內(nèi)容提供方或者搜索引擎在內(nèi)容管控上不夠嚴格。
實際上,這不是蘋果Siri第一次“涉黃”。公開報道顯示,2012年10月,有網(wǎng)友稱Siri可提供“三陪”場所信息,調(diào)查發(fā)現(xiàn),用Siri搜索“三陪”等信息,確實可以找到一些涉黃的場所。很快,蘋果公司將“三陪”等敏感信息列入屏蔽范圍,此外,蘋果公司還表示,屏蔽范圍除“三陪”等涉黃信息外,還包括涉及暴力等違反中國法律的信息。
?
?
?
相關鏈接:
siri女聲配音者曝光 不是美女是大媽?
·凡注明來源為“海口網(wǎng)”的所有文字、圖片、音視頻、美術設計等作品,版權均屬??诰W(wǎng)所有。未經(jīng)本網(wǎng)書面授權,不得進行一切形式的下載、轉(zhuǎn)載或建立鏡像。
·凡注明為其它來源的信息,均轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責。
網(wǎng)絡內(nèi)容從業(yè)人員違法違規(guī)行為舉報郵箱:jb66822333@126.com