11年前的美國電影《她》講述社恐男愛上AI薩曼莎的故事,如今電影場景已成為現(xiàn)實。在社交平臺搜索“AI伴侶”,很多網(wǎng)友分享了自己與AI伴侶的日常。近期舉辦的2024年世界互聯(lián)網(wǎng)大會熱議了今年發(fā)生的“全球首例AI機器人致死案”。AI技術(shù)延伸更多領(lǐng)域的同時也帶來更復(fù)雜的潛在風(fēng)險。
“AI伴侶”有市場需求,因其基于用戶行為數(shù)據(jù)進行分析,精準迎合了用戶情緒需要。但不得不承認的是,AI的本質(zhì)是數(shù)據(jù)和算法,其背后的應(yīng)用邏輯必然潛藏著多重風(fēng)險。今年2月,美國一名14歲男孩長期癡迷和AI機器人聊天,在某天進行最后一次對話后自殺身亡。此案被媒體認為是“全球首例AI機器人致死案”,這起悲劇暴露出了AI技術(shù)失范的危害。
一方面,支持“AI伴侶”的模型需接受大量數(shù)據(jù)訓(xùn)練,以便模仿回應(yīng),如浪漫小說和愛情故事等,這些信息來源廣泛且缺乏足夠的篩選和審核機制,導(dǎo)致“AI伴侶”可能傳播不良信息,并且一旦程序出現(xiàn)漏洞或被不法分子惡意利用,其后果更是不堪設(shè)想。
另一方面,AI伴侶在與用戶的交互過程中還會通過收集大量的個人信息。與“AI伴侶”交流互動越頻繁、越密切,“AI伴侶”獲取的個人隱私也就越精準豐富。而這些用戶數(shù)據(jù),若被不當使用或泄露,將對用戶的隱私安全構(gòu)成嚴重威脅。
此外,AI伴侶產(chǎn)品并非免費的午餐,用戶很容易陷入無盡的充值陷阱中。從一些網(wǎng)友反饋來看,當前不少AI伴侶產(chǎn)品可免費使用基礎(chǔ)功能,但“沉浸式體驗”比如語音通話、音樂電臺、照片等特色功能,則需按月或按年付費訂購。部分產(chǎn)品還設(shè)計了“記憶提升卡”等付費道具,讓AI伴侶能更好地針對使用者的習(xí)慣、愛好等作出回應(yīng)。同時,定制劇本、多重劇情、及時反饋等游戲化設(shè)置,也不斷刺激用戶對AI戀人的消費欲望和情感期待。
不少案例顯示,伴隨著AI伴侶擬人化程度的提高,用戶可能會對其產(chǎn)生過度的情感依賴,無法辨別現(xiàn)實與虛擬的界限,繼而受到情感傷害,尤其是心理脆弱群體,所受到的沖擊可能更大。而且長期依賴AI伴侶交流和獲得情感需求,還會導(dǎo)致社交技能退化。
說到底,“AI伴侶”是一種數(shù)字關(guān)系,是人類互動的補充之一,在鼓勵和支持AI技術(shù)創(chuàng)新應(yīng)用于情感交流、心理健康等領(lǐng)域的同時,也應(yīng)該明確“AI伴侶”在數(shù)據(jù)保護、內(nèi)容審核、商業(yè)行為規(guī)范等方面的法律責(zé)任與義務(wù),防止傳播違背公序良俗的信息。另外,當前國內(nèi)外發(fā)布的AI倫理準則大多較為宏觀,建議細分領(lǐng)域,構(gòu)建AI情感溝通防沉迷機制,根據(jù)用戶年齡、適用場景等進一步細化,讓“AI伴侶”在合法合規(guī)的框架內(nèi),才能為人們創(chuàng)造更加智能、便捷、安全的陪伴體驗,助力構(gòu)建和諧美好的數(shù)字社會。