(資料圖片僅供參考)
自谷歌發(fā)布其“實驗性對話AI服務(wù)”Bard以來,人們并沒有對它留下深刻印象。與OpenAI的ChatGPT和微軟的必應(yīng)聊天(也由OpenAI的GPT-4提供支持)相比,用戶發(fā)現(xiàn)它的回答不如競爭對手那樣知識淵博或詳細。
然而,這可能會有所改變,在紐約時報播客“Hard Fork”上確認,谷歌首席執(zhí)行官桑達爾·皮查伊表示Bard將很快從當前基于LaMDA模型轉(zhuǎn)移到更大規(guī)模的PaLM數(shù)據(jù)集。當被問及他對Bard發(fā)布后反應(yīng)的感受時,皮查伊評論道:“我們顯然擁有更強大的模型。
很快,在此過程中,我們將把Bard升級到一些更具能力、無論是在推理還是編碼方面都具備更多功能的PaLM模型。”為了說明差異,去年Google分享了關(guān)于基于語言模型的細節(jié)時稱已經(jīng)使用1370億個參數(shù)訓練了LaMDA。另一方面,則稱PaLM已經(jīng)使用約5400億個參數(shù)進行訓練。
兩種模型自2022年初以來可能已經(jīng)發(fā)展和成長了,但這種對比可能表明為什么谷歌現(xiàn)在正在緩慢地將Bard轉(zhuǎn)移到PaLM上,因為它具有更大的數(shù)據(jù)集和更多樣化的答案。皮查伊聲稱并不擔心谷歌的AI開發(fā)速度與競爭對手相比。當Bard首次亮相時,他承認其依賴于LaMDA使其規(guī)模較小,但將計算能力降低視為一種好處,可以讓更多用戶測試并提供反饋。皮查伊還確保在獲得現(xiàn)實世界信息后,谷歌將進行自己對Bard安全性和質(zhì)量的分析。