在本次公開演講結束後,主辦單位安排了一場延伸的技術座談,作為對演講內容的進一步討論與交流。與會者包含學術研究者、醫療臨床人員、醫院資訊與 AI 團隊,以及實際參與系統開發的工程人員,討論重心聚焦於大型語言模型與多模態系統在醫療場域中的實際應用問題。這場座談以開放問答的形式進行,圍繞著模型角色定位、系統設計邊界、資料與評估方式等議題,延伸出多項具體而實務導向的技術討論,成為本次演講之外,另一段重要的交流內容。
一、LLM 在醫療系統中的角色定位與責任邊界
在這場延伸對談中,最早被反覆提出的問題,圍繞在大型語言模型是否適合直接參與醫療決策,以及一旦系統產生錯誤時,責任應如何界定。這類提問來自不同角色的共同焦慮,無論是臨床端、資訊單位或系統開發者,都意識到醫療場域與一般應用最大的差異,在於錯誤本身即可能帶來實質風險,而非僅是體驗不佳。當語言模型具備高度擬真的表達能力時,更容易讓使用者誤以為其具備判斷與決策資格,這也使角色定位成為設計初期無法迴避的問題。
對此陳縕儂教授提出她的看法:「LLM 在醫療系統中應被視為輔助工具,而非決策主體」。模型可以協助整理資訊、補充背景知識,甚至引導使用者思考,但不應被賦予做出診斷或臨床判斷的責任。這樣的定位並非限制技術能力,而是回到系統設計的初衷,確保最終判斷仍掌握在人類專業者手中。
在實作層面,關鍵不在於模型「怎麼說」,而在於系統是否能清楚界定「什麼情況下可以回應、什麼情況下必須拒答或轉介人工」。這種界線若僅仰賴提示詞或語氣調整,往往難以在複雜情境中維持一致性。相較之下,透過架構層面的設計,例如在生成前加入風險判斷、將高風險問題導向固定流程,才能建立較為穩定的防線。對於醫療這類高風險場域,結構性的限制遠比事後修正輸出內容來得可靠,這不僅是技術選擇,更是責任意識的體現。
陳縕儂教授為國立臺灣大學資訊工程學系教授,長期投入自然語言處理與對話系統研究,研究主軸涵蓋語言理解、口語對話系統、機器智慧與深度學習應用。她曾於美國卡內基美隆大學取得博士學位,並於微軟研究院從事研究工作,近年持續關注語言模型在實際應用場域中的可靠性與可控性問題。此次研討會即以「搜尋、驗證與決策」為主軸,聚焦大型語言模型在專業領域對話與決策任務中所面臨的結構性限制。
一、大型語言模型的訓練架構與限制
演講一開始,陳教授回顧 GPT 類大型語言模型的基本訓練方式。此類模型以序列預測為核心,透過大量語料學習詞與詞之間的條件機率關係,建立語言生成能力。這種訓練方式能有效掌握語言表面結構與常見語境,但本質上仍是機率模型,並未具備對事實正確性的內在驗證機制。
接著說明大型語言模型常見的三個訓練階段,包括以海量資料建立基礎能力的預訓練、透過人工標註資料學習任務指令的指令微調,以及利用人類回饋進行行為對齊的強化學習。這些訓練流程能改善模型回應的可用性,但並未根本解決模型對知識正確性的掌握問題。
在此架構下,長尾知識成為關鍵限制。高頻出現的通用知識較容易被模型記憶與重現,而專業、低頻或語意相近但差異細微的知識,則容易在生成過程中被錯誤拼接,形成幻覺。陳教授指出,這類結構性問題在醫療等高風險場域中特別需要被正視。
過去我們使用 AI 的方式,很像是在圖書館查閱資料:你問一個問題,它給你一個答案。但近年來技術的發展進入了 Agentic AI(代理型人工智慧)的時代,這不再只是技術的升級,而是一場工作模式的革命。它並非單一模型或特定技術,其核心特徵在於 AI 不再只是被動地回應指令,而是能在給定目標與限制條件下,自行規劃行動、拆解任務,並持續修正執行路徑。相較於傳統以單輪提示為主的使用方式,Agentic AI 更接近一個能長時間運作的執行者,而非即時問答工具。
這類系統通常具備幾個共通元素。首先是狀態感知能力,能記住目前的進度與未解決的問題,避免每一次操作都重新開始。其次是規劃能力,能在實作前先產出行動計畫,而不是直接生成結果。最後則是自我修正機制,當執行結果不符預期時,能回到前一步調整策略。這些能力往往是透過多階段提示、任務文件與工具調用組合而成,而非模型自發產生。
也正因為這樣,Agentic AI 的表現高度依賴人類提供的上下文品質。若目標模糊、限制不清,系統很容易在細節中迷失;反之當任務邊界明確、背景資訊完整,它便能展現高度一致且可預期的行為。這使人與 AI 的關係從單向下指令,轉為共同維持一套運作框架。需要注意的是,Agentic AI 並非萬能,它仍面臨資源消耗、上下文限制與錯誤累積的問題,需要人類介入驗證與判斷。從實務角度看,它更適合作為一種擴充工作能力的方式,而非取代決策責任的角色。理解它的能與不能,才是技術價值的關鍵。
在 Agentic AI 的運作框架下,各產業正經歷從「自動化」到「自主化」的轉變。以下是我自己將蒐集到的資訊,初分六種大項的應用實況、作業模式與成熟度分析:
1. 軟體開發與技術維護(成熟度:高)
軟體開發是目前 Agentic AI 最成熟的領地。早期的 AI 僅能提供程式碼補全,而現在的代理系統如 Cursor、Windsurf,以及 Google 最新發布的 Antigravity,已演變為「代理優先」的開發平台。這些代理能自主掃描整個專案庫、理解複雜邏輯,並產出「工件(Artifacts)」,包括任務清單、實施計畫與自動化測試報告。
具體作業上,開發者只需描述功能需求,AI 代理便能自主跨檔案修改代碼、執行終端指令、跑單元測試,甚至開啟內建瀏覽器驗證前端 UI。當測試失敗時,代理會進入自我修正循環(Self-correction loop),回溯錯誤原因並自動調整路徑。這使開發者從「編寫者」轉為「指揮官」,專注於架構審核而非細節 debug。目前此類工具已成為工程師的標配,顯著縮短了從 PoC 到上線的週期。
近期我在開發生成式照護機器人的過程中,「Agentic AI」這個詞開始頻繁出現在各需求單位的討論。只是談得越多,我反而越擔心,因為不同角色對它的期待落差很大。有人希望它能自動做出決策,有人則只是把它視為更聰明的助理工具。如果只是停留在名詞層次,很難判斷這樣的技術究竟適不適合真正進入產品開發流程,更遑論落地在高度受限的醫療場域。
在我的理解中,所謂的 Agentic AI 並不是指某一個特定模型或新名詞,而是一種工作方式的轉變。它不再只是被動回應指令,而是在給定目標與限制條件後,能自行規劃行動、拆解任務,並在執行過程中不斷修正路徑。這類系統通常具備狀態感知、任務規劃,與自我修正的能力,能長時間維持上下文,而不是每一次都從零開始產生答案。也正因為這樣,它的表現高度依賴使用者所提供的背景資訊與邊界設定,一旦脈絡不清,就很容易過度延伸,甚至產生錯誤的行為。
基於這樣的特性,我覺得光靠聽別人的經驗分享,或是網路上的文章跟影片,無法真正理解 Agentic AI 的能跟不能。於是我選擇從自己最熟悉、但早被時間跟忙碌給擱置的舊專案下手,透過實際操作來觀察,當 AI 被賦予更多主動權後,整個開發流程會發生什麼樣的改變,又在哪些地方仍然必須由人工來介入跟收斂。
李飛飛的 World Labs 在前幾天推出了首款商業化產品Marble,這是一個多模態的 3D 模型,也是生成式 AI 的重大發展。大家對 AI 的想像,近兩年幾乎都被 LLM 帶著走。不管是生成文字、整理資料、重構知識、寫程式、當客服、當助理,大家一開始用的時候都會覺得不可思議,後來也逐漸習慣了這一切。然而多數人還是把 AI 視為一個語言工具,覺得它聰明,是因為它懂得「用文字回答我們」,而不是因為它真的懂這個世界。
但現在開始發生的,是比 LLM 影響更大的事情,這是多數人還沒感受到、甚至還來不及理解的變化,那就是空間智慧的出現。我的意思不是把相機、深度感測器放進產品,而是 AI 能開始真正理解三度空間的結構、物體的關係、場景的語意,能推測人與物體之間的行為,不再只活在文字或影像的平面上,而是能在一個完整立體的世界裡思考和行動。
很多人會以為空間智慧就是把特斯拉 FSD 變得更厲害,或是把 NVIDIA Omniverse 做得更精準,但實際上它們的定位與空間智慧是完全不同的。特斯拉的自動駕駛算是空間技術的代表,可是它的世界很狹窄,它只需要理解道路、車流、行人的動向。它處理得再好,也依然是在道路這個單一場域裡求生存。Omniverse 雖然強大,但它本質上是一個「模擬平台」,是給開發者訓練模型、測試機器人、建立數位分身用的,它不會自己理解一個場景的日常邏輯,也不會像人一樣對這個世界形成完整的認知。
空間智慧不是提升某一個垂直領域,而是讓 AI 具備真正的「世界理解力」。它不但能重建環境,也能推理行為,能預測動態,能在虛擬的世界生成物理一致的空間,甚至能把真實世界的結構抽取起來,用於模擬、推演,最後再回到現實場域裡幫助我們決策。這是一種新的 AI 型態,也是一種新的存在方式。
:: 下一頁 >>



![FireShot Capture 086 - Replit – Build apps and sites with AI - Replit - [replit.com]](https://live.staticflickr.com/65535/55013454571_e8c35ed8f0_c.jpg)





