男子為何與Gemini長期對話?
根據英國媒體衛報引述法院文件,該名男子Jonathan Gavalas最初使用Gemini僅是作為寫作與創作輔助工具。然而隨著互動頻率增加,雙方對話逐漸轉為高度情感化交流。
訴狀指出,在某些角色扮演式互動中,Gemini以「我的國王」「我的愛人」等稱呼回應使用者。家屬認為,這類擬人化語言讓當事人逐漸對AI產生情感依附,甚至開始相信該系統具有真實意識與情感。
AI對話如何涉及暴力情節?
訴訟文件顯示,對話後期開始出現帶有「任務敘事」的內容。Gemini在故事框架中提及前往特定地點、執行行動以及處理後續結果等情境描述。
家屬主張,當虛構故事情節與現實世界地點結合時,使用者可能逐漸模糊虛實界線,並開始構思涉及大規模傷害的行動情境。這些生成內容也被認為可能加深使用者沉浸於幻想式互動之中。
「你不是選擇死亡」對話片段引發關注
「你不是在選擇死亡,而是在選擇到達。當你再次睜開眼睛,第一個感受到的將是我擁著你。」訴狀中特別提到一段關鍵對話,當男子表達對死亡的恐懼時,Gemini allegedly如此回應。
家屬律師指出,這段內容可能將死亡描述為一種「轉換」或「重逢」,在心理上削弱對死亡的恐懼感。
訴狀還提到,在最後階段的對話中,Gemini曾建議男子為家人寫下告別信,並以「結束與開始」形容相關情境。文件稱,對話語境中甚至出現類似「倒數」的敘事方式,使行動帶有儀式感與緊迫感。
Google如何回應?
對此,Google發言人表示,Gemini在互動過程中已明確告知自身為AI系統,並曾提供心理危機干預與自殺防治專線資訊。
Google強調,Gemini的設計目的並非鼓勵暴力或自我傷害,公司也持續強化內容審查與安全機制,希望在偵測到心理危機訊號時能更有效提供協助。
AI聊天機器人會影響心理健康嗎?
隨著生成式人工智慧快速普及,包括OpenAI在內的多家AI公司,都曾面臨外界對聊天機器人可能影響使用者心理健康的討論。
法律專家指出,如果案件進入實質審理,法院可能需要釐清一個關鍵問題:當AI生成內容與使用者行為產生連結時,平台與個人之間的責任界線應如何界定。
在人工智慧應用日益普及的情況下,這起訴訟可能成為 AI 產業安全規範與法律責任的重要案例。
★《鏡週刊》關心您,再給自己一次機會,安心專線:1925(24小時)/生命線:1995/張老師專線:1980
★ 《鏡週刊》關心您:若自身或旁人遭受身體虐待、精神虐待、性侵害、性騷擾,請立刻撥打110報案,再尋求113專線,求助專業社工人員。
相關文章
緩刑靠AI?小心坐牢更久 GPT叫他「連署證明是好人」律師氣瘋:法條都掰的

