AI新管理學:讓機器自己管機器?然後呢?


當軟體工程師開始用AI寫程式,誰來確保品質?這張圖,藏著未來企業的答案。



你的公司,正在發生同樣的事

不只是科技業。

當你的財務長開始用AI生成報表、當你的行銷團隊讓AI寫文案、當你的客服部門讓AI回答客戶——你面對的問題,跟這張圖說的,是同一件事:

人變少了,產出變多了,但誰來把關?

這張圖描述的是OpenAI的Codex系統——一個讓AI自己寫程式的架構。但它真正有趣的地方,不是AI有多聰明,而是它設計了一套「讓AI管AI」的制度。



這套制度,只有五個零件

技能封裝(Skills)
把所有工作拆成5到10個標準動作,建立統一界面。

企業意義:
先把流程標準化,才能自動化。你不能把一個混亂的部門交給AI——你只會得到更快的混亂。

紀律工具(Linters)**
AI寫完東西,立刻有另一個程式掃描、挑毛病、自動修復。

企業意義:
品管不靠人盯,靠規則盯。 把你的SOP寫進系統,讓系統自己執行。

結構測試(Tests)
設定350行代碼上限,每一份產出都要通過一致性測試才算完成。

企業意義:
給AI設邊界,不是限制它,是保護你。沒有邊界的授權,是風險,不是效率。

審查AI(Reviewer Agents)
提交成果之前,先過P0/P2兩道AI審查關卡,非同步進行。

企業意義:
用AI審查AI,人只處理例外。** 主管的時間,應該花在AI不能判斷的事上。

角色文件(Documentation)

所有產出按角色分類,記錄非功能性需求。

企業意義:
知識要留在組織裡,不能只在人腦裡。員工離職,文件不能跟著消失。



 三條企業可以直接用的遊戲規則

 規則一:標準化先於自動化

很多公司買了AI工具,卻發現沒用。原因不是AI不好,是**流程本身就沒有標準**。Codex的第一步永遠是「封裝技能」——先定義這件事怎麼做,才交給機器做。

規則二:讓系統抓漏洞,不要讓主管抓漏洞

Linters的邏輯是:規則寫死在系統裡,不靠任何人記得。台灣企業最常見的品管問題,是太依賴「有經驗的老員工」——這是人才風險,也是規模化的天花板。

規則三:人管例外,AI管常規

Reviewer Agents的設計是非同步、分層審查。這意味著**人的注意力只用在AI無法判斷的邊界案例上**。未來的管理者,不是管人最多的人,而是最會設計審查機制的人。


這不是科技新聞,這是管理革命

五年後,每一家企業都會有自己的「Codex架構」——不管你叫它什麼。

差別只有一個:你是現在開始設計這套制度,還是等競爭對手設計完了,再來追。


*本文概念啟發自AI開發架構示意圖,由「知識倉鼠」製作
https://open.substack.com/pub/circleghost/p/agent-harness-engineering?utm_source=share&utm_medium=android&r=46rwo8

留言

這個網誌中的熱門文章

故事長筆記|你不是不行,你只是想太多

人生的四種人:誰在決定你的高度與寬度?

故事長筆記|把人生的訊號關掉一下——從無人區到創業現場,大鵬的另一種人生選擇:大鵬與俞敏洪老師12/18聯麥直播有感