聊天機(jī)器人一直是人工智障的代表。
盡管從GPT-3開始,AI生成的文本已經(jīng)能做到以假亂真,但這僅限于生成一段話。
在連續(xù)聊天中,AI不會記得自己之前說過的話,就像下面這樣:
AI這種前后矛盾的表現(xiàn),在人類看來就是沒有穩(wěn)定的身份和個性,好像聊著聊著換人了,也難怪一直被當(dāng)作人工智障。
現(xiàn)在,F(xiàn)acebook AI團(tuán)隊(duì)終于推出BlenderBot2.0,在1.0基礎(chǔ)上添加了長期記憶和即時搜索功能。
首先要記住自己說過的話:
記下自己說過的“我喜歡很多種音樂”,和“Kanye West是我最喜歡的說唱歌手”這樣的信息,避免后續(xù)聊天中出現(xiàn)矛盾。
人類說的話也要記住,比如最喜歡的專輯:
最后,如果人類提到了AI不知道的東西怎么辦?
趁沒人發(fā)現(xiàn)悄悄去網(wǎng)上搜索,還能把搜出來的信息顯擺出來:
查到對方喜歡的藝人Beyonce的出生地,并用“我去過那里幾次”接上對話。
是不是像極了在群里聊天吹水時偷偷百度的你?
如何告別智障
Facebook AI去年發(fā)布的BlenderBot1.0就已經(jīng)做到了94億參數(shù),在單輪對話生成上取得了出色的效果。
這次升級的重點(diǎn)是一個檢索增強(qiáng)算法,能從過去對話記憶和互聯(lián)網(wǎng)上的資料中提取出能用在當(dāng)前對話的信息。
對于訓(xùn)練數(shù)據(jù),F(xiàn)acebook在眾包平臺上發(fā)布了任務(wù)。
讓參與者在對話中扮演一個特定的人格,并隔幾小時、隔幾天對同一個話題進(jìn)行討論,收集成多輪對話數(shù)據(jù)集。
AI從網(wǎng)上搜索資料并用于聊天的能力,也是從人類那里學(xué)來的。
同樣是在眾包平臺上,這次的任務(wù)是讓一個人描述自己的興趣開啟話題,另一個人可以上網(wǎng)搜索并接上對話。
這樣AI不僅能學(xué)到人類在面對不同話題的適合搜索什么關(guān)鍵詞,還能學(xué)到最后什么樣的信息可以用在聊天上。
實(shí)驗(yàn)結(jié)果上,BlenderBot2.0對之前對話內(nèi)容的使用率提高了55%,在對話中的事實(shí)一致性提高了12%,而人類評估員打出的分?jǐn)?shù)提高了17%。
能上網(wǎng)搜索信息還讓AI能夠參與人類世界中最新的話題,比如談?wù)撔律嫌车碾娨晞 ?/p>
如果和BlenderBot1.0聊起今年新片《旺達(dá)幻視》,他只能說我沒看過,這天就聊死了。
Blender2.0就可以搜索后說出片中最喜歡的角色是誰,讓人更有把對話繼續(xù)下去的欲望。
AI的記憶不再靜止于它完成訓(xùn)練的那一刻。
LeCun點(diǎn)贊,馬斯克擔(dān)憂它的三觀
三巨頭之一的LeCun第一時間轉(zhuǎn)發(fā)了BlenderBot2.0并評價為“首個能對任意話題Hold住多輪對話的聊天機(jī)器人”
馬斯克所擔(dān)心的,是AI從開放互聯(lián)網(wǎng)上獲取信息很快會變得三觀不正。
他舉的例子是微軟推出的Tay機(jī)器人在16小時左右就被網(wǎng)友聊成了納粹支持者,最后被迫下架。
對于和AI討論“最喜歡的作品”這回事,有人表現(xiàn)出了不信任:
AI不會喜歡某個作品,只是自動把最流行的作品當(dāng)成最好的,和網(wǎng)上追逐熱點(diǎn)的大多數(shù)人一樣。
有人看出了潛在的隱私風(fēng)險:
你們說讓AI上網(wǎng)搜索,不會是在Facebook上搜索我發(fā)的帖子吧。
如果你感興趣,可以到Facebook的Parlai平臺下載模型和它聊聊看。
評論