最近拜讀了一篇文章《Advances and Challenges in Foundation Agents》,介紹的手術機器人協作系統。在這個系統里,AI 憑借技術進行實時病理分析,通過精密算法規劃器械路徑;人類則牢牢把控關鍵決策,如確定血管切割點,并在異常情況發生時及時介入。作為一個計劃人,嘗試暢想下計劃領域下AI和計劃員協作模式。
一、AI下的計劃:眾星捧月
將上述協作模式遷移到計劃領域,基礎形態是“AI 分析,人做決策”。面對集成計劃中多角色信息協同與多約束考量的復雜需求,可拓展為“多AI 分析,人做決策”。進一步深入,由于多AI 分析必然涉及AI 之間的協作,由此形成“多AI 分析,多AI 博弈,人做決策” 的進階模式。
在此模式下,AI 發揮強大的數據處理與分析能力,快速整合信息并模擬推演;多AI 博弈促使不同策略相互碰撞,挖掘更優解;人類憑借經驗、判斷力和創造力,從眾多方案中敲定最終決策。
不負責任的瞎想,未來是否會出現AI眾星捧月,計劃員獨寵某一個AI的情況?
二、角色:人是裁判員還是上帝
在多AI 協作與人機協作體系中,人既可以是“裁判員”,也可以是“上帝”。若將人比作裁判員,AI 便是運動員,人負責制定規則,AI 依照規則“競技”,過程中人適度干預,以達成理想結果;若把人視為上帝,那么人創造AI 后,更多時候選擇放手,僅在必要時刻對AI 世界進行摧毀與重塑。
當人在計劃中擔任裁判時,需對AI 行為進行大量干預。以企業生產計劃為例,裁判式的人要制定詳細的AI 運行規則,規范其對生產流程、資源分配等方面的分析邏輯,同時自身也要接受監督考核,保證決策公正合理。值得注意的是,在多AI 博弈過程中,可能出現局部最優的困境。這時候可能還需要一個高層次的AI,類似”球隊隊長”, 不參與具體分析和博弈,而是站在全局視角,監控各AI 的博弈過程,當發現整體策略陷入局部最優時,及時進行引導和協調,輔助人類做出更科學的決策
若人以“上帝” 角色入局,工作重心則轉向AI 創建,著重設定AI 源頭規則,給予其較大行為自由。在創新性計劃場景中,上帝式的人僅設定基本準則與方向,讓AI 自由探索,只有當AI 發展嚴重偏離預期時,才采取極端干預措施。
您覺得計劃中,人的角色是什么?
三、問題的關鍵是突破協同的關鍵問題
無論人選擇成為裁判員還是上帝,都需解決幾個核心問題。
其一,解決AI與AI協作的緊迫度高于AI與人,因為前者是基礎,后者更多是倫理和假設。不同AI 基于各異的算法與目標運行,需要深入研究高效的AI 通信協議、協同算法,構建合理的利益分配與約束機制,避免它們在協作中產生沖突,實現整體最優。
其二,人的能力要求。作為裁判員,人需精通AI 技術原理,具備制定科學規則與協調管理的能力;作為上帝,人要有前瞻性戰略眼光與敏銳洞察力,既能設定合適的AI 發展規則,又能及時察覺潛在問題并果斷處置。
四、計劃員要做什么
本文并不想進一步設想,AI自主學習和決策能力不斷增強之后的世界,未來是變化的,那可能是下一代六點鐘太陽的思考重點。本文希望能聚焦,計劃中人的自我定位,并基于定位來考慮,計劃中的人,需要做什么來提升自己,需要了解什么來實現新模式下人的新定位。

