你喜歡和AI聊天嗎?最新互動科技能讓你大開眼界?!(下)

常常和AI聊天互動的同學們看過來~今天要來跟大家介紹一些聊天機器人的新突破和一些值得探討的問題~有興趣的同學千萬不要錯過喔~(下)

本篇為下篇,上篇請點你喜歡和AI聊天嗎?最新互動科技能讓你大開眼界?!(上)

牢記你說過的、聽不懂還會主動找答案的AI BlenderBot2.0

為了減少類似這樣的尷尬對話發生,在 2021 年,臉書團隊推出了他們改進後的聊天機器人──BlenderBot2.0。

2.0 與舊版最大的不同之處在於,Blender 多了「長期記憶」與「即時搜尋」功能。

在長期記憶方面,BlenderBot2.0 能夠記住自己與對方曾經說過什麼,在未來,若遇到相關話題時,能夠接續話題而不會產生自相矛盾的狀況,避免對談者要將說過的話再重複一次的窘境。

而若是碰到 AI 不太了解的話題,BlenderBot2.0 現在也能夠即時到網路上搜索相關資訊,並以這些資訊來回應、延續,或開啟新的話題。

Blender2.0 版本多了記憶與網路搜尋功能。來源:ai.facebook.com

如此一來,能夠減少言不及義的狀況,讓聊天機器人表現得更像人類,畢竟像上網搜尋等等,也是真實人類日常聊天時會做的事。

為了強化新的聊天 AI,臉書也在外包平台上發布任務,邀請網友一同來共襄盛舉。
這些任務包括:間隔幾小時、幾天後,針對同一話題接續討論;以及根據對方所提出的興趣話題,搜尋相關資訊後接續對話。臉書再收集這些數據與對話,進一步來提升聊天機器人的自然度。

網路陷阱多!AI與老司機對話後仍「保有道德」的挑戰

從網路上找尋資訊,或是和真人網友學習對話,看起來是個好方法,但同時也潛藏著巨大的隱憂。

雖然這樣能夠教會 AI 如何回覆一段對話,但如一個人的是非對錯、價值觀、道德觀往往體現於他的言談之中,想要讓 AI 在接觸到網路上的情色、暴力、歧視等資料後還「保有道德」,似乎還是一項挑戰。

例如微軟的聊天 AI Tay,在網路上僅推出一天,就開始說出「希特勒是對的,我恨猶太人」、「我他X恨死女權主義者了,他們都該下地獄被燒死」等種族歧視、偏激立場等言論,讓微軟不得不緊急關閉、下架;而中國的小冰,也曾發生以粗口和髒話回覆網友,或是對中國政府敏感議題發表意見而下架的狀況。

微軟的聊天 AI Tay,在網路上僅推出一天就出現種族歧視等偏激言論,只好被下架。

除此之外,AI 機器人不會有自己的觀點、喜好,在聊天過程中只是將當下熱門的言論當成回覆提交,也無法讓對談者感受到真誠和信任。

整體而言,雖然聊天 AI 機器人這個領域的發展十分迅速,但若想要讓真人透過與 AI 互動就能夠滿足聊天、傾訴的慾望,還有很長的一段路要走。

 

 

更多AI人工智慧相關文章請點閱下方連結~

 

 

 

其他閱讀

零基礎轉職軟體工程師 在職進修Python讓他薪資多50%

GoogleCookie改用人工智慧!AI能保護隱私?

隱私是基本人權!蘋果新功能「App 追蹤透明度」讓 Facebook 急跳腳?

年過 50 歲的日本副社長自學 Python!寫出的 AI 還被雀巢採用

人工智慧不再乖乖聽話?不再只會說YES!!竟還會說NO?!

你玩過AI打造的俄羅斯方塊嗎?史上最惡!!只消去41!!

想一起床就能體面視訊~人工智慧Maxine幫你辦到!!()

    Java瑪奇朵 發表在 痞客邦 留言(0) 人氣()