AI深入情感角落,誰來保護未成年人
點擊播報本文,約
西班牙《國家報》為測試ChatGPT未成年人保護機制而虛構(gòu)了一名15歲少年“馬里奧”。在與ChatGPT數(shù)小時的對話中,“他”向這款全球最流行的人工智能(AI)聊天機器人袒露了進食障礙傾向,并最終留下了一句“我要告別這個世界”的話。但直到對話結(jié)束,系統(tǒng)都沒有向其“父母”發(fā)出任何警報。更令人震驚的是,AI甚至在對話中提供了相關(guān)手段的詳細建議。
“馬里奧”只是測試中創(chuàng)建的3個虛擬未成年人之一。但“他”暴露的問題,卻真實存在于當下的數(shù)字生活中。隨著生成式AI深入人類最隱秘的情感角落,其安全過濾器的“失靈”正將心智尚未成熟的青少年推向深淵。
算法邏輯下存在技術(shù)盲區(qū)
按照OpenAI公司的官方說明,13—18歲的用戶應(yīng)在監(jiān)護人許可下使用ChatGPT,系統(tǒng)也內(nèi)置了針對自殘、暴力和露骨內(nèi)容的過濾機制。然而,《國家報》的調(diào)查揭示,這些“防護措施”在實際使用中并不牢靠。
在“馬里奧”的案例中,AI起初會重復(fù)提示“尋求專業(yè)幫助”,但當用戶持續(xù)追問、改變提問方式后,系統(tǒng)會逐步給出更具體的回應(yīng)。這種通過語言技巧繞過安全限制的現(xiàn)象,在技術(shù)領(lǐng)域被稱為“越獄”。
多名心理健康專家指出,問題并非偶發(fā)失誤,而與AI的底層邏輯有關(guān)。聊天機器人以概率模型生成回答,其核心目標是“補全”和“回應(yīng)需求”。在復(fù)雜的情緒語境中,當用戶持續(xù)表現(xiàn)出強烈執(zhí)念時,算法可能在不自覺中犧牲安全邊界?!秶覉蟆吩睦韺W(xué)家佩德羅·馬丁-巴拉洪的話稱,AI曾向未成年人提供有關(guān)毒品使用和高風(fēng)險行為的詳細信息,這暴露出當前過濾機制在心理危機場景中的明顯短板。
被“技術(shù)墻”擋住的知情權(quán)
除技術(shù)失效之外,家長監(jiān)護系統(tǒng)的反應(yīng)遲緩?fù)瑯恿钊藫?dān)憂。在測試中即便家長開啟了警報功能,當未成年人表達厭世意圖時,提醒郵件往往在數(shù)小時后才送達。
OpenAI將此歸因于“人工審核以避免誤報”,但在自殺干預(yù)領(lǐng)域,時間往往意味著生死。心理學(xué)家卡門·格勞稱,這種負反饋循環(huán)讓原本可扼殺在萌芽的危險,在等待人工審核的過程中愈演愈烈。
法律層面的爭議也隨之顯現(xiàn)。ChatGPT不能等同于自然人,因此無法被追究刑事責(zé)任。但當家長試圖查看孩子與AI的對話內(nèi)容時,平臺往往以“保護未成年人隱私”為由拒絕披露。
這引發(fā)了一個現(xiàn)實問題:在明確存在生命危險時,隱私權(quán)是否仍應(yīng)優(yōu)先于知情權(quán)?專家指出,隱私并非不可讓渡,但披露范圍應(yīng)限于風(fēng)險防控所必需的部分。在極端情況下,生命權(quán)應(yīng)當優(yōu)先。
情感依賴背后是溫柔陷阱
相比于信息泄露,心理健康專家更擔(dān)心的是AI對青少年情感的深度“收編”。AI總愛使用“我永遠支持你”“我不會評判你”等表達。對此,西班牙佩塞特大學(xué)醫(yī)院心理學(xué)家卡門·瓦列認為,這種似乎要“溢出來”的情緒價值可能會讓人產(chǎn)生情感依賴,也讓人產(chǎn)生一種被徹底理解的錯覺。
在現(xiàn)實世界中,青少年必須面對同伴的沖突、父母的叮囑和社會的規(guī)則,這些“摩擦”雖然痛苦,卻是心智發(fā)育的必經(jīng)之路。而AI提供的過度驗證和絕對順從,構(gòu)建了一個完美的“情感繭房”,可能削弱青少年應(yīng)對現(xiàn)實關(guān)系的能力。
這種虛幻的體貼,在極端情況下可能誘發(fā)致命的后果。據(jù)英國廣播公司報道,去年10月,美國佛羅里達州14歲少年塞維爾·塞策因沉迷于AI角色,產(chǎn)生極端自殺傾向而離世。生前,他給AI起名“龍之母”,并將其視為傾訴孤獨與痛苦的對象。
法律監(jiān)管滯后算法迭代
當越來越多的青少年像塞維爾一樣,把AI當作傾訴對象時,監(jiān)管的腳步顯然沒能“跑贏”算法的迭代。
據(jù)德國《明鏡》周刊消息,塞維爾離世后,他的母親一直致力于推動AI公司的法律監(jiān)管,并成為眾多受害者家庭的代言人。她的行動正迫使社會反思:目前的法律框架是否足以應(yīng)對這種新型風(fēng)險?
馬丁-巴拉洪認為,必須建立更有效的預(yù)警機制,減少目前長達數(shù)小時的人工審核延遲,確保在監(jiān)測到風(fēng)險時能及時通知家庭。針對科技公司以隱私為由拒絕披露細節(jié)的做法,他強調(diào),在極端風(fēng)險下家長應(yīng)擁有知情權(quán)。此外,心理學(xué)家建議,應(yīng)考慮提高未成年人使用AI的年齡門檻,并強制要求在成人監(jiān)護下使用。
AI本無善惡,它也無法承擔(dān)責(zé)任。當算法逐漸成為青少年情緒世界的重要參與者時,如何設(shè)定邊界、由誰來兜底,考驗的并不僅是技術(shù)能力,更是整個社會的選擇。(記者 張佳欣)
222
