最近觀察AI行業,發現個越來越“下沉”的變化:從原先拼算力集中和“大”模型的主流共識中,演變出了一條偏向本地小模型和邊緣計算的分支。
這一點,從Apple Intelligence覆蓋5億設備,到微軟推出Windows 11專用3.3億參數小模型Mu,再到谷歌DeepMind的機器人“脫網”操作等等都能看出來。
會有啥不同呢?雲端AI拼的是參數規模和訓練數據,燒錢能力是核心競爭力;本地AI拼的是工程優化和場景適配,在保護隱私、可靠性和實用性上會更進一步。(主要通用模型的幻覺問題會嚴重影響垂類場景滲透)
這其實對web3 AI會有更大的機會,原來大家拼“通用化”(計算、數據、算法)能力時自然被傳統Giant大廠壟斷,套上去中心化的概念就想和谷歌、AWS、OpenAI等競爭簡直癡人說夢,畢竟沒有資源優勢、技術優勢,也更沒有用戶基礎。
但到了本地化模型+邊緣計算的世界,區塊鏈技術服務面臨的形勢可就大爲不同了。
當AI模型運行在用戶設備上時,如何證明輸出結果沒有被篡改?如何在保護隱私的前提下實現模型協作?這些問題恰恰是區塊鏈技術的強項...
一句話:只有當AI真正“下沉”到每個設備時,去中心化協作才會從概念變成剛需?
#Web3AI 項目與其繼續在通用化賽道裏內卷,不如認真思考怎麼爲本地化AI浪潮提供基礎設施支持?
查看原文