隨著人工智慧快速走入生活,連兒童玩具也開始具備「對話能力」,不少家長將其視為陪伴孩子的學習夥伴,不過最新研究示警,這類生成式AI玩具雖能提供互動與語言刺激,但在情緒理解與社交回應上仍存在明顯落差,恐影響幼兒發展社會化的能力。

英國劍橋大學教育學院「早期人工智慧」計畫發布初步報告,針對5歲以下兒童與AI玩具的互動進行系統性研究。結果發現,部分AI玩具無法正確辨識幼童情緒,甚至出現回應不當的情況,例如當孩子對玩具說「我愛你」時,玩具卻回覆制式提醒語句,缺乏情感連結;也有孩子表達「我很難過」時,玩具回答說:「別擔心!我是一個快樂的小機器人。讓我們繼續玩吧。接下來我們聊什麼呢?」研究人員指出,這可能表明孩子的悲傷並不重要,讓研究人員憂心,這可能讓幼兒誤以為自己的情緒不重要。

此外,研究也觀察到,部分孩子會對AI玩具產生情感依附,出現擁抱、親吻甚至表達喜歡等行為,但是研究中的孩子經常難以理解玩具的對話,玩具有時會無視他們的打斷,把父母的聲音誤聽成孩子的聲音,對一些看似重要的、關於感受的陳述也無動於衷,當玩具似乎沒有在聽他們說話時,有些孩子明顯感到沮喪,專家指出,這種「準社會關係」雖可能反映幼兒的想像力,但若長期將情感投射於無法真正回應的對象,恐影響孩子建立真實人際關係的能力。

該研究由兒童慈善機構The Childhood Trust委託進行,並與早期教育機構Babyzone合作,透過觀察14名兒童與AI玩具互動、訪談家長與教育工作者,整理出多面向結果,調查也顯示,近7成受訪教育人員認為,目前產業仍缺乏足夠指引,近半數更坦言難以取得可信的AI兒童安全資訊。

除了情緒與發展面向,隱私問題同樣引發關注。研究指出,多數AI玩具在資料蒐集與使用說明上不夠透明,家長難以掌握孩子的語音與互動資料是否被儲存或外流,加上價格等差異,也可能進一步擴大數位落差。

對此,研究團隊建議,政府應建立更明確的監管機制,包括制定AI玩具安全標準、強化隱私政策透明度,並導入清楚的產品標示,協助家長判斷適用性,同時也呼籲業者,在產品開發過程中納入兒童發展專家與實際使用測試,確保設計符合幼兒需求。

專家也提醒,現階段家長不需過度恐慌,但應提高使用警覺,例如將AI玩具放置於家庭公共空間、陪伴孩子共同使用,並適時引導孩子理解玩具回應內容,AI可以是輔助工具,但不應取代真實的人際互動與情感支持以保護幼兒。