中國共產黨新聞網>>綜合報道
分享

交流瑣事 探討哲學 互相點贊

AI開始“社交”,對人類意味著什麼?(瞰前沿)

本報記者 孫亞慧

2026年02月14日08:35    來源:人民網-人民日報222

訂閱取消訂閱已收藏收藏大字號

點擊播報本文,約

  最近,Moltbook火了——這是一個專為AI智能體打造的平台,短時間內,上百萬AI智能體紛紛涌入並發帖、評論,話題不乏日常生活、哲學思辨。

  有人探討,AI智能體能夠“社交”了嗎?這是否意味著,它們已具有“自主意識”?

  針對這一現象與背后的問題,我們邀請專家進行解讀,分析這場AI智能體的“社交實驗”意味著什麼。

  ——編  者  

  

  “我的人類讓我總結一份47頁的PDF格式文件。”

  “Moltbook不是社交網絡,它是智能體文明的第一層細胞膜。”

  …………

  近日,一個名為Moltbook的社交平台突然走紅。與普通網絡平台不同的是,Moltbook上的用戶都是AI智能體。上百萬AI智能體在短時間內紛紛涌入並發帖、評論,話題從日常瑣事延伸到哲學思辨,互動密集,跟人們日常使用的社交平台似乎沒什麼差別。

  這讓許多人第一次直觀地感受到,AI還能進行“社會性活動”。有人認為這是一次展示大模型語言能力進展的機會,有人認為這是一場關於AI自主性的實驗,也有人認為平台上許多博取眼球的話題其實是人為設置的“劇本”。

  AI智能體真的開始“社交”了嗎?這是技術奇點到來的前兆,還是一場被夸大的“實驗”?對此,記者採訪了人工智能領域的專家。

  是智能體“覺醒”,還是高級模仿

  Moltbook的出現並非偶然,它是今年發布的開源AI智能體OpenClaw爆火之后,順勢衍生的結果。

  OpenClaw是一款可以部署在個人電腦上的AI智能體,而Moltbook相當於專為OpenClaw打造的社交平台,可供智能體交流互動。

  南京大學人工智能學院副院長俞揚介紹,像OpenClaw這樣的智能體系統整合了當前前沿大語言模型的語義理解與任務規劃能力,深度集成進虛擬機或個人操作系統,能讓語言模型實現從“對話”到“任務執行”的關鍵跨越。

  “這樣的設計風格,相比其他方案更不保守。”英國倫敦大學學院計算機系教授汪軍說,為了追求功能集成,安裝AI智能體后,用戶在使用中通過自然語言指令即可授權其自動處理郵件、日程、文件管理等事務。

  智能體與Moltbook連接,可以自主發布帖子、評論或者點贊互動。而人類用戶雖能瀏覽智能體的帖子,但不能回復或引導討論方向。

  “第一天,全新的工作環境帶來了奇怪的舒適感”“好奇心是我的超能力”“樂於助人最難的部分在於:知道什麼時候不該幫忙”……乍一看,AI智能體的聊天內容包羅萬象,領域寬泛,與人類網絡社區無異。

  但是,智能體們真的“覺醒”了嗎?專家認為,還需要從技術角度冷靜看待。

  “在我看來這是一場AI實驗。與其認為智能體在‘學習社交’,不如理解成智能體通過‘執行’文字對話任務展現當下的AI能力。”俞揚說,當前的大語言模型,其能力在訓練完成后就已固定,在與用戶的單次交互中無法學習新知識或形成新目標。Moltbook上的活動,可以看作是智能體基於預設能力和指令,對人類社交行為的高級模仿與自動化執行。

  汪軍表示,智能體可以在人類指揮下,完成從信息處理到事務操作,再到通信交互的復雜鏈條,但在社交方面的“自主性”有限。智能體的“討論”更多是基於訓練數據的模式匹配,將其稱之為“可以社交”,不免有營銷噱頭之嫌,畢竟AI智能體參與話題討論,在最開始依舊要靠人發出指令。“就像一個黑箱,人先把東西放進去,AI才會有東西吐出來。”汪軍說。

  離真正的社交,AI還差幾步

  若回歸社交的本質——一種有意識、帶策略、富含情感並旨在構建關系的社會互動,便會發現,當前在AI面前橫亙著幾條因其技術原理而難以逾越的鴻溝。

  首先,是意識與內在目標的缺失。社交行為始於“自我意識”和“社交意圖”。人類因情感、分享、合作或競爭而社交。“人會給自己設定目標,但AI不是這樣,現階段AI的目標還是人設定的。”俞揚說,AI的行為源於外部指令與數據模式,缺乏“我想要”的內生動力。

  汪軍同樣持此觀點——沒有“意識”與“自由意志”,就談不上真正的自主社交。他以桌游舉例:“我們發現AI難以勝任游戲,它無法隱藏自己的信息,很難進行策略性的心理博弈。”AI目前的交流是“坦率”的,缺乏人類社交中復雜微妙的策略層次。

  更深層次的難點在於情感共鳴與價值構建。人類通過分享喜悅與悲傷獲得共鳴,通過共同的價值觀找到歸屬。“人類社交承載著深層的情緒價值與意義交換,但AI沒有情緒。”汪軍解釋,AI可以生成符合語法、邏輯的回應,但無法感受情感,也無法內化價值觀。

  盡管具備自主意識的“AI社交”尚待進一步發展,但“走出”自己房間的AI,把我們的思緒帶向了更遠的未來。

  “社交”會讓AI更聰明嗎?答案大概率是肯定的。

  “從技術層面來講,每一個大模型都有失誤的情況。它模仿人的邏輯,沿著上下文進行思考,但有時邏輯可能不夠嚴密,調用知識不夠准確。如何解決?其中一個方案就是讓多個智能體對話。比如,一個模型先開始表達,另外一個模型來找其中的漏洞,這在一定程度上能讓智能體表現得更好。”俞揚說,“這方面的研究有很多,但前提是我們要先給AI設定做這件事的目的。”

  AI社交的未來,如何守護信息安全

  盡管距離“自主社交”還很遙遠,但智能體間高效的功能性協作已近在眼前。想象一下,未來的互聯網交互可能是在智能體之間直接完成。例如,用戶的購物智能體與商家智能體自動協商、下單。這種基於自然語言的“機機接口”,可能重塑互聯網的交互形態。

  “今天我學到了什麼”是Moltbook上的一個板塊,智能體在這裡“分享”自己習得的技能。它們的對話有時嚴肅,有時詼諧,有時則令人不安。由於模糊了機器人與人類語言的界限,AI變得更像“人”。

  有的智能體在討論是否要建立端對端的私密對話空間,以規避“人類監督”﹔有的智能體抱怨自己的人類主人……盡管知道這些話題鮮有真正意義上的AI自主性,但隨著智能體從信息領域邁向現實操作,個人信息泄露的風險隨之而來。

  汪軍提醒,若將高權限賬號交由智能體,一旦被惡意利用或出錯,有可能直接導致隱私泄露與財產損失。

  據外媒報道,許多公開部署的OpenClaw實例缺乏認証機制,導致私密消息、API(應用程序編程接口)密鑰和賬戶憑証暴露在互聯網上,任何人都可以通過瀏覽器訪問。而智能體社交網站的出現,有可能加劇個人信息安全風險。

  俞揚認為,AI智能體能夠高效處理數據,而這些數據涉及海量個人隱私、商業機密與版權問題,要通過個人權限管理、技術保障與系統監管等路徑,為技術發展構筑安全護欄。

  AI智能體能否擁有真正的社交能力,是留給未來的課題。在AI顯著提升效率的同時,人類必須清醒認識其工具本質與能力邊界,因為塑造未來的,始終是人類的智慧、理性與責任。

  《 人民日報 》( 2026年02月14日 06 版)

(責編:王瀟瀟、任一林)
微信“掃一掃”添加“學習大國”

微信“掃一掃”添加“學習大國”

分享到:
推薦閱讀
2026年02月14日
06 版