希小虎聽完這個補丁版本的核心脈絡,喜笑顏開。先前的懷疑如煙消雲散,再也不提。
一把攬過孟繁岐的肩膀,道:“你這兩個東西做出來,頂得上有的組一年的成果了!”
“虎總不問基礎問題了?”孟繁岐也乘機打趣道。
“唉!這叫什麼話。”希小虎一擺手,“我隨便考考你的呀!”
兩人哈哈一笑,前面微妙的地方就算是揭過了。
“另一個方向則是對新版AI的引入了。”孟繁岐自然不會忘記自己的老本行,移動端適配的判斷與AI關係不大,而這個解釋模型則能夠引入更多的因素去綜合判斷某一次搜尋的相關結果。
這個屬於非常重要的技術突破,孟繁岐明年還會開發Transformer和伯特(BERT方法,也就是ChatGPT的T。
到時候對這個解釋模型還會有繼續的升級。
即便孟繁岐一年多後離開谷歌,這個演算法也會持續地迭代下去。
甚至可以說,它是一個非常低配版本的Bing大小姐(GPT4核心,有一定的語言理解能力足以幫助搜尋引擎更好的理解使用者的搜尋語句。
不過還不具備任何看起來像智慧的功能,也就沒法真正和使用者對話。
希小虎現階段對AI的理解不是那麼的充分,此時的語言模型基本上以時序類模型為主,也都是有一定年頭的老技術了。
因此他多少還是知道一些:“時序類語言模型理解語句可能確實不錯,但用在這麼大的體量,會不會太慢?”
所謂時序模型,就是一個時刻的模型計算可能需要聯絡前後文,沒有辦法獨立的進行運算,因此也就極大地限制了運算的並行。
本來一個人做一百題確實很慢,但一百人做一百題,那就是百倍速度的提升。
可若是第二題一定要第一題的答案才能做,那就沒辦法了,只能乾等。
所謂一核幹活,七核圍觀,說得便是類似的情況。
在這樣的背景下,即便谷歌計算資源夠多,也還是不好處理這個運算時間的問題。
要知道搜尋時的延遲,那可比開啟網頁時候的延遲要命多了。
“虎總忘記我的老本行是什麼了?語言模型的並行問題,我當然是有了想法才會提出這個計劃。”論推薦廣告,孟繁岐的細節遠遠不如希小虎紮實穩健。
但要說AI方向的突破,強如希小虎這樣的大佬也遠遠不是孟繁岐的對手。
而孟繁岐這次準備的推薦廣告三板斧,除了前面兩個專注於移動端最佳化,和搜尋詞理解最佳化之外。最後一個弗雷德演算法則是專門懲罰性質的方法,它的效果最立竿見影。
“我的最後一個演算法策略,專門在搜尋結果中尋找低價值內容和各種欺騙性廣告以及各種會員連結。以最嚴厲的懲罰方式,來迫使網站傾向於高質量原創內容和優質的使用者體驗。”
至此,谷歌在19年前的幾個主要推薦廣告演算法的基礎框架已經被確立。
只待孟繁岐去開發完成。