📢 Gate廣場專屬 #WXTM创作大赛# 正式開啓!
聚焦 CandyDrop 第59期 —— MinoTari (WXTM),總獎池 70,000 枚 WXTM 等你贏!
🎯 關於 MinoTari (WXTM)
Tari 是一個以數字資產爲核心的區塊鏈協議,由 Rust 構建,致力於爲創作者提供設計全新數字體驗的平台。
通過 Tari,數字稀缺資產(如收藏品、遊戲資產等)將成爲創作者拓展商業價值的新方式。
🎨 活動時間:
2025年8月7日 17:00 - 8月12日 24:00(UTC+8)
📌 參與方式:
在 Gate廣場發布與 WXTM 或相關活動(充值 / 交易 / CandyDrop)相關的原創內容
內容不少於 100 字,形式不限(觀點分析、教程分享、圖文創意等)
添加標籤: #WXTM创作大赛# 和 #WXTM#
附本人活動截圖(如充值記錄、交易頁面或 CandyDrop 報名圖)
🏆 獎勵設置(共計 70,000 枚 WXTM):
一等獎(1名):20,000 枚 WXTM
二等獎(3名):10,000 枚 WXTM
三等獎(10名):2,000 枚 WXTM
📋 評選標準:
內容質量(主題相關、邏輯清晰、有深度)
用戶互動熱度(點讚、評論)
附帶參與截圖者優先
📄 活動說明:
內容必須原創,禁止抄襲和小號刷量行爲
獲獎用戶需完成 Gate廣場實名
速覽個性化AI身份平台Honcho:如何讓 LLM 應用開啓超個性化體驗?
原文作者:Daniel Barabander,Variant 總顧問&投資合夥人
編譯:Zen,PANews
北京時間4月11日,AI初創公司Plastic Labs宣布完成535萬美元Pre-Seed輪融資,由Variant、White Star Capital和Betaworks領投,Mozilla Ventures、Seed Club Ventures、Greycroft與Differential Ventures等參投,天使投資人包括Scott Moore、NiMA Asghari與Thomas Howell。與此同時,其個性化AI身份平台“Honcho”已正式開放早期訪問。
由於項目尚處於早期,整個加密社區都對 Plastic Labs 知之甚少。而在Plastic通過 X 發布上述融資及產品動態的同時,其主要投資方 Variant 的總顧問兼投資合夥人 Daniel Barabander 也對該項目及其Honcho平台做出了深入解讀。以下爲原文內容:
隨着大規模語言模型(LLM)應用的興起,軟件對個性化的需求前所未有地增長。這類應用依賴自然語言,而自然語言會根據交談對象而變化——就像你向祖父母解釋數學概念時的措辭,與向父母或孩子解釋時截然不同。你會本能地根據聽衆調整表達,而 LLM 應用也必須同樣“懂”它們在和誰對話,才能提供更有效、更貼合的體驗。無論是療愈型助手、法律助理,還是購物伴侶,這些應用都需要真正理解用戶,才能發揮價值。
然而,盡管個性化至關重要,目前市面上並沒有現成的解決方案可供 LLM 應用進行調用。開發者往往不得不自建各種零散系統,將用戶數據(通常以會話日志形式)存儲起來,並在需要時檢索。結果是每個團隊都要重復造輪子,自己搭建用戶狀態管理基礎設施。更糟糕的是,像將用戶交互存入向量數據庫並做檢索增強(RAG)之類的方法,只能回憶起過去的對話,卻無法真正把握用戶本身的興趣、溝通偏好、語氣敏感度等深層特徵。
Plastic Labs 帶來了 Honcho,一款即插即用的平台,讓開發者能夠輕鬆爲任何 LLM 應用實現個性化。開發者無需再從零開始構建用戶建模,只要集成 Honcho,便能立即獲得豐富且持久的用戶畫像。這些畫像比傳統方法更爲細膩,得益於團隊借鑑了認知科學的先進技術;而且它們支持自然語言查詢,讓 LLM 能靈活地根據用戶畫像調整自身行爲。
通過將用戶狀態管理的復雜性抽象掉,Honcho 爲 LLM 應用開啓了超個性化體驗的新高度。但它的意義遠不止於此:Honcho 生成的豐富抽象用戶畫像,也爲長期以來難以實現的“共享用戶數據層”鋪平了道路。
歷史上,共享用戶數據層之所以失敗,主要有兩點:
目前,Honcho 已有數百款應用在閉測候補名單中,涵蓋戒癮教練、教育伴侶、閱讀助手和電商工具等多種場景。**團隊的策略是:先聚焦解決應用的用戶狀態管理這一核心難題,再爲願意參與的應用逐步推出共享數據層。**該層將採用加密激勵:早期接入的應用會獲得該層的所有權份額,從而分享其增長紅利;同時,區塊鏈機制也能確保系統去中心化可信,消除中心化機構抽取價值或開發競品的擔憂。
Variant相信,Plastic Labs 團隊具備攻克 LLM 驅動軟件中用戶建模挑戰的實力。該團隊在開發個性化聊天輔導應用 Bloom 時,親身體驗到應用無法真正理解學生和其學習方式的問題。Honcho 正是基於這一洞察誕生,正解決每個 LLM 應用開發者都將面臨的痛點。