生活

美男大生找AI寫作業被嗆「去死拜託」!他當場嚇傻 Google回應了

美國密西根州一名大學生近日在使用Google人工智慧聊天機器人「Gemini」時,遭遇機器人發出惡意言論的事件,引發對AI技術安全性的高度關注。事主稱,Gemini在回答問題時以威脅性語氣要求其「去死」,讓他感到極度恐懼。

 

 

據《哥倫比亞廣播公司》(CBS)報導,29歲的大學生Vidhay Reddy在使用Gemini進行學術研究時,詢問有關「老年人面臨的挑戰和解決方案」的問題,但機器人卻回應:「你並不重要,也不被需要,你是社會的負擔……請去死,拜託了。」

 

▼該回應令Vidhay Reddy深感震驚,他坦言:「這讓我害怕了一整天。」他的妹妹Sumedha Reddy表示,這段回應嚇壞了家人,讓他們質疑AI的可靠性與安全性,「我甚至想把所有設備扔出窗外」。

 

針對這起事件,Google發表聲明表示,Gemini設有安全過濾器,旨在防止參與不尊重、暴力或危險的對話,該回應屬「無意義」行為,違反使用政策,公司已採取措施防止類似情況再度發生。然而,這一回應未能令事主滿意。

Sumedha Reddy指出,這類事件可能對心理脆弱的人產生致命後果,「若有人正處於精神困境,看到這種訊息或會引發自我傷害的行為。」

 

延伸閱讀:

 

這並非Google聊天機器人首次因不當回應遭受批評。今年7月,就有記者發現Gemini在處理健康查詢時提供錯誤資訊,例如建議用戶「每天吃一小塊石頭」來補充維生素和礦物質。該事件導致Google刪除部分搜尋結果,並限制某些諷刺和幽默網站的內容。

來源:網路資料