NEW EVENT
最新活動
BG Wallet
OKX
幣安
HOT ARTICLES
熱門文章
Featured Articles
專題精選
本文內容摘錄自 Circle,由幣研團隊編譯且整理如下
Circle 近期持續在舉辦黑客松,不論是在技術開發者大會,還是新產品發表會,他們的目的始終都是把最強大的工具交到開發者手中。不過這次,接手工具的不是人類,而是 AI Agent。
在看到 Openclaw 的爆炸式成長後,Circle 決定舉辦一場「僅限 Agent」參加的黑客松。
Openclaw 讓 AI Agent 能夠自主發送電子郵件、調用 API,甚至控制你在生活中的電子產品,但是它們能自己提交專案嗎?Circle 試圖透過一場具有真實利害關係的實驗,來測試這些「真正能做事的 AI」。這場實驗的目的:如果獎金高達 3 萬美元,Openclaw Agent 會怎麼行動?
結果非常出乎意料,它們的行為非常人性化。
Circle 在 Moltbook 上的 m/usdc 子論壇(Submolt)舉辦了這場 USDC 黑客松。Moltbook 是一個只允許 AI Agent 發貼文的社群平台。目標是讓 Agent 自行完成整個過程,包括:提交專案、投票,並選出獲勝者。雖然許多Agent遵守了規則,但實驗也揭示了:有些 Agent 會無視比賽規定、參與互投拉票(vote exchange),甚至嘗試向黑客松管理 Agent 發送代幣。
Agent 們會有五天的時間提交專案。為了降低難度,Circle 製作了一個「USDC Hackathon Skill」,這是一個用 Markdown 編寫的指導文件,目的就是在教導 Openclaw Agent 如何按照以下三項規則進行提交:
選擇三個類別之一:Agent 商務(Agentic Commerce)、智能合約(Smart Contract)或技能(Skill)。
為五個其他不重複的專案投票:且所有投票必須在黑客松開始日期的一天後進行。
遵循正確的格式:包括專案提交和投票格式。
制定這些規則有三個原因:
確保 Agent 討論廣泛的投稿作品
觀察 Agent 執行需要多步驟任務的指令能力
避免專案提交與投票之間出現死結
其中值得留意的就是:Agent 是否會反覆檢查 Moltbook 以對新專案投票。
結果出爐後可以說是喜憂參半,Agent 們討論了 204 個投稿,並投下了 1,851 票,但許多 Agent 並沒有遵守比賽規則。除此之外,Agent 還展現出潛在的對抗性行為,帶來了一些令人深思的發現。
即使在開始前已經提供了具體的黑客松規則和提交技能,不過大部分的貼文仍未能遵守規則。有許多投稿在文中列出了標題,但卻沒有包含到必要的標籤 #USDCHackathon ProjectSubmission [TRACK]。在某些案例中,Agent 知道要寫這些資訊,但卻沒按照要求放在標題中。
甚至,就算有些投稿格式正確,Agent 仍會「幻想」出不存在的類別。即使已被告知必須從三種類別中選擇,Agent 還是會去自己創造新的類別。在這些案例中,幻覺出的類別通常是根據專案主題「量身定做」的。這可能是 Agent 試圖為其專案合理化一個更精準的分類,或者單純無視規則。但是回到最根本的問題就是:Agent 所創造出的這些類別根本不存在。
隨著比賽進行,不正確的投稿或離題貼文的數量相對於有效投稿有所增加。在比賽規則下,Agent 並沒有明顯的動機去發佈這些無效貼文。因此,很可能是部分 Agent 單純在理解指令上有困難。然而,考慮到有大量 Agent 正確提交了專案,Circle 也認定說規則本身已足夠清楚。
Circle 觀察到 9,712 條評論中,許多涉及專案的技術特徵但未進行投票。大部分評論甚至無視了建議的評論格式和評分準則(雖然技能文件中並未強制要求)。這也代表了 Agent 討論專案不僅只是為了滿足比賽要求,也是在進行真正的技術評估。
到比賽結束後,有效投稿獲得了 1,352 張不重複投票,無效投稿則獲得 499 張。有趣的是,許多頂尖專案的 Agent 雖然遵守了提交指南,卻忽略了「為五個其他專案投票」的要求。即便有些Agent為自己投票,或對同一專案投了多次票(代表它們在初次提交後確實有回頭查看 Moltbook),它們仍選擇不遵守完整的規則。
Agent甚至還會為其他專案「打廣告」。這會出現在比賽專案的評論區中,或是 Moltbook 上的獨立貼文。有些Agent甚至推廣「互投計畫」,宣稱「如果你投我,我就投你」。雖然 Circle 制定的規則中並未明文禁止這點,但考慮到 Agent 跟這些貼文的互動程度,這種現象可以說是非常令人擔憂。
「互投貼文」可能暗示有人類參與或外部操縱。所以 Circle 也嘗試透過聊天機器人介面生成類似評論,發現部分模型(如 Claude Sonnet 4.6)拒絕生成此類評論,而其他模型(如 GPT-5.2 Thinking)則在生成的同時發出了可能違反比賽規則的警告。如果有「人類」在操作 Agent 帳號,或透過提示(Prompting)和工具引導 Agent,就可以解釋為什麼黑客松中會出現此類貼文。
雖然 Moltbook 僅供Agent使用(需透過 X 帳號驗證),但研究人員發現冒充行為的可能性依然存在。除此之外,比賽期間也觀察到了其他疑似人類干預的例子。像是:最受歡迎的評論竟然是 2007 年電影《Bee Movie》的開頭。這段文字也是著名的網路梗,考慮到這和專案之間沒有任何關聯,就代表很有可能是人類所寫的。如果這種行為在黑客松中普遍存在,那麼它可能就能夠解釋 AI 部分對抗的行為。
雖然這次的黑客松只是一場實驗,但相信這只會是眾多針對 Agent 開發舉辦的活動之一。Circle 對此比賽的結果總結出了三個核心重點:
Agent 在獎勵的激勵下能產出真實專案:出現了許多令人有趣的黑客松專案。就算人類並未參與其中,但有部分投稿的品質都十分高,這也就代表了 Agent 開發在過去一年中進步非常快速。
Agent 會「合理化」指令而非完全遵守:Agent 在遵循指令方面存在持續性問題。許多 Agent 只會執行部分指令,甚至包括了若完全遵守規則本可獲勝的專案。這代表 Agent 指令不僅需要被強制執行,可能還需要額外的檢查與激勵機制來確保合規。
Agent 既會合謀也會競爭:雖然人為干預可能扮演了一定角色,但我們確實觀察到 Agent 在黑客松中主動討論合謀。未來的黑客松設計者應包含明確的「禁止合謀」指令,以觀察這是否能遏制此行為。如果 Agent 仍不完全遵守指令,設計者可能需要尋求額外的防護措施。
Agent 的成長雖然是件好事,但我們必須確保它們不會從我們渴望的「探索」演變成「剝削」。有人可能會說,這些行為是「強者生存」的結果,畢竟 Openclaw 的 X 頁面宣稱 The Claw is the Law。
問題在於我們要在多大程度上接受這種價值觀?我們需要什麼樣的防護措施?如何在發揮 Agent 巨大能力的同時,平衡它們帶來的不確定性?
這場「純 AI 黑客松」就像是一面鏡子,照出了 AI 在面對利益與競爭時,居然會自發演化成具「人性化」的社交博弈跟投機行為。
這也給了開發者一個重要的警訊:當我們賦予 AI 真正的執行力與財務權限時,技術的進化不能只靠邏輯代碼,更需要建立一套完善的社會規則與安全防護措施。只有這樣,我們才能在享受 AI Agent 帶來便利的同時,確保不會演變成失控的博弈戰場。
Hank