在本次公開演講結束後,主辦單位安排了一場延伸的技術座談,作為對演講內容的進一步討論與交流。與會者包含學術研究者、醫療臨床人員、醫院資訊與 AI 團隊,以及實際參與系統開發的工程人員,討論重心聚焦於大型語言模型與多模態系統在醫療場域中的實際應用問題。這場座談以開放問答的形式進行,圍繞著模型角色定位、系統設計邊界、資料與評估方式等議題,延伸出多項具體而實務導向的技術討論,成為本次演講之外,另一段重要的交流內容。
一、LLM 在醫療系統中的角色定位與責任邊界
在這場延伸對談中,最早被反覆提出的問題,圍繞在大型語言模型是否適合直接參與醫療決策,以及一旦系統產生錯誤時,責任應如何界定。這類提問來自不同角色的共同焦慮,無論是臨床端、資訊單位或系統開發者,都意識到醫療場域與一般應用最大的差異,在於錯誤本身即可能帶來實質風險,而非僅是體驗不佳。當語言模型具備高度擬真的表達能力時,更容易讓使用者誤以為其具備判斷與決策資格,這也使角色定位成為設計初期無法迴避的問題。
對此陳縕儂教授提出她的看法:「LLM 在醫療系統中應被視為輔助工具,而非決策主體」。模型可以協助整理資訊、補充背景知識,甚至引導使用者思考,但不應被賦予做出診斷或臨床判斷的責任。這樣的定位並非限制技術能力,而是回到系統設計的初衷,確保最終判斷仍掌握在人類專業者手中。
在實作層面,關鍵不在於模型「怎麼說」,而在於系統是否能清楚界定「什麼情況下可以回應、什麼情況下必須拒答或轉介人工」。這種界線若僅仰賴提示詞或語氣調整,往往難以在複雜情境中維持一致性。相較之下,透過架構層面的設計,例如在生成前加入風險判斷、將高風險問題導向固定流程,才能建立較為穩定的防線。對於醫療這類高風險場域,結構性的限制遠比事後修正輸出內容來得可靠,這不僅是技術選擇,更是責任意識的體現。
陳縕儂教授為國立臺灣大學資訊工程學系教授,長期投入自然語言處理與對話系統研究,研究主軸涵蓋語言理解、口語對話系統、機器智慧與深度學習應用。她曾於美國卡內基美隆大學取得博士學位,並於微軟研究院從事研究工作,近年持續關注語言模型在實際應用場域中的可靠性與可控性問題。此次研討會即以「搜尋、驗證與決策」為主軸,聚焦大型語言模型在專業領域對話與決策任務中所面臨的結構性限制。
一、大型語言模型的訓練架構與限制
演講一開始,陳教授回顧 GPT 類大型語言模型的基本訓練方式。此類模型以序列預測為核心,透過大量語料學習詞與詞之間的條件機率關係,建立語言生成能力。這種訓練方式能有效掌握語言表面結構與常見語境,但本質上仍是機率模型,並未具備對事實正確性的內在驗證機制。
接著說明大型語言模型常見的三個訓練階段,包括以海量資料建立基礎能力的預訓練、透過人工標註資料學習任務指令的指令微調,以及利用人類回饋進行行為對齊的強化學習。這些訓練流程能改善模型回應的可用性,但並未根本解決模型對知識正確性的掌握問題。
在此架構下,長尾知識成為關鍵限制。高頻出現的通用知識較容易被模型記憶與重現,而專業、低頻或語意相近但差異細微的知識,則容易在生成過程中被錯誤拼接,形成幻覺。陳教授指出,這類結構性問題在醫療等高風險場域中特別需要被正視。
過去我們使用 AI 的方式,很像是在圖書館查閱資料:你問一個問題,它給你一個答案。但近年來技術的發展進入了 Agentic AI(代理型人工智慧)的時代,這不再只是技術的升級,而是一場工作模式的革命。它並非單一模型或特定技術,其核心特徵在於 AI 不再只是被動地回應指令,而是能在給定目標與限制條件下,自行規劃行動、拆解任務,並持續修正執行路徑。相較於傳統以單輪提示為主的使用方式,Agentic AI 更接近一個能長時間運作的執行者,而非即時問答工具。
這類系統通常具備幾個共通元素。首先是狀態感知能力,能記住目前的進度與未解決的問題,避免每一次操作都重新開始。其次是規劃能力,能在實作前先產出行動計畫,而不是直接生成結果。最後則是自我修正機制,當執行結果不符預期時,能回到前一步調整策略。這些能力往往是透過多階段提示、任務文件與工具調用組合而成,而非模型自發產生。
也正因為這樣,Agentic AI 的表現高度依賴人類提供的上下文品質。若目標模糊、限制不清,系統很容易在細節中迷失;反之當任務邊界明確、背景資訊完整,它便能展現高度一致且可預期的行為。這使人與 AI 的關係從單向下指令,轉為共同維持一套運作框架。需要注意的是,Agentic AI 並非萬能,它仍面臨資源消耗、上下文限制與錯誤累積的問題,需要人類介入驗證與判斷。從實務角度看,它更適合作為一種擴充工作能力的方式,而非取代決策責任的角色。理解它的能與不能,才是技術價值的關鍵。
在 Agentic AI 的運作框架下,各產業正經歷從「自動化」到「自主化」的轉變。以下是我自己將蒐集到的資訊,初分六種大項的應用實況、作業模式與成熟度分析:
1. 軟體開發與技術維護(成熟度:高)
軟體開發是目前 Agentic AI 最成熟的領地。早期的 AI 僅能提供程式碼補全,而現在的代理系統如 Cursor、Windsurf,以及 Google 最新發布的 Antigravity,已演變為「代理優先」的開發平台。這些代理能自主掃描整個專案庫、理解複雜邏輯,並產出「工件(Artifacts)」,包括任務清單、實施計畫與自動化測試報告。
具體作業上,開發者只需描述功能需求,AI 代理便能自主跨檔案修改代碼、執行終端指令、跑單元測試,甚至開啟內建瀏覽器驗證前端 UI。當測試失敗時,代理會進入自我修正循環(Self-correction loop),回溯錯誤原因並自動調整路徑。這使開發者從「編寫者」轉為「指揮官」,專注於架構審核而非細節 debug。目前此類工具已成為工程師的標配,顯著縮短了從 PoC 到上線的週期。
近期我在開發生成式照護機器人的過程中,「Agentic AI」這個詞開始頻繁出現在各需求單位的討論。只是談得越多,我反而越擔心,因為不同角色對它的期待落差很大。有人希望它能自動做出決策,有人則只是把它視為更聰明的助理工具。如果只是停留在名詞層次,很難判斷這樣的技術究竟適不適合真正進入產品開發流程,更遑論落地在高度受限的醫療場域。
在我的理解中,所謂的 Agentic AI 並不是指某一個特定模型或新名詞,而是一種工作方式的轉變。它不再只是被動回應指令,而是在給定目標與限制條件後,能自行規劃行動、拆解任務,並在執行過程中不斷修正路徑。這類系統通常具備狀態感知、任務規劃,與自我修正的能力,能長時間維持上下文,而不是每一次都從零開始產生答案。也正因為這樣,它的表現高度依賴使用者所提供的背景資訊與邊界設定,一旦脈絡不清,就很容易過度延伸,甚至產生錯誤的行為。
基於這樣的特性,我覺得光靠聽別人的經驗分享,或是網路上的文章跟影片,無法真正理解 Agentic AI 的能跟不能。於是我選擇從自己最熟悉、但早被時間跟忙碌給擱置的舊專案下手,透過實際操作來觀察,當 AI 被賦予更多主動權後,整個開發流程會發生什麼樣的改變,又在哪些地方仍然必須由人工來介入跟收斂。
我出社會後第一次出差,就開啟了我的攝影之路。印象中那還是一台 Sony MVC-FD51 裝著光碟載體的數位相機,後來公司買了 Nikon CoolPix 990,接著我買了我的 Sony DSC-P1,一路下來就到了今天。
我喜歡紀錄下我觀察到的那一瞬間,今天看到一個短影片,提到喜歡拍照的人,重點不在於技巧,而是發現生活中的美好。我覺得有時不見得都是美好,但都是讓我想記錄下來的某一刻。
隨著年齡增加,某些熱情難免會消退,加上體力也的確跟年輕時不同。但我還是希望盡可能保有那想紀錄的習慣,這些片段一方面給自己看,另一方面在某些情境下,會帶給其他人難忘的回憶跟共鳴。
:: 下一頁 >>



![FireShot Capture 086 - Replit – Build apps and sites with AI - Replit - [replit.com]](https://live.staticflickr.com/65535/55013454571_e8c35ed8f0_c.jpg)




