近日工作有感,我們單位迎來第一次擴編。當一個團隊開始成長,真正發生改變的,往往不只是工作量,而是每個人對自己位置的理解。原本只需要把事情完成,慢慢變成被期待承擔更多的工作與責任。這樣的轉換不一定會被明確說出口,可能只是會議變多了,溝通增加了,做決定時開始擔心是否什麼沒考慮到......。時間一久,壓力便開始累積,並在不同的人身上造成負面影響。有的人感到疲憊,有的人變得焦躁,也有人開始對方向跟產出感到不安。站在管理的位置來看,這些反應都很真實,也很合理,只是當它們同時出現,摩擦便難以避免。

在這樣的過程中,我很清楚管理職並不是一種升遷,而是一種責任結構的轉換。技術角色關心的是把事情做好,管理角色面對的,則是必須為整體結果負責,包含那些沒有親手完成,卻仍然需要承擔後果的部分。當有人誠實地說出目前的工作量已經接近極限,那並不是推託,而是一個站在執行者位置的自然反應。但管理角色所面對的現實,往往不是事情會不會太多,而是在事情一定很多的前提下,哪些需要被重新安排,哪些甚至必須暫時放下。這樣的轉換,對長期以專業自我要求為核心的人來說,本來就不輕鬆。

L1030777

特別是越在意品質的人,或自我要求高的人,往往在這個階段越容易受挫。不是因為不夠成熟,而是因為心中對什麼才算把事情做好,有一套清晰的標準。但現實環境裡,時間有限、資源不足、需求也未必完整,許多決定只能在不理想的條件下做出。如果只用妥協或迎合來理解這些選擇,很容易讓人開始懷疑自己。管理者真正面對的,其實是另一個更困難的課題,在有限條件下,哪些不完美是目前可以承擔的,哪些則是不能妥協的底線。這不是放棄理想,而是理解環境運作的現實。

隨著團隊人數增加,溝通鏈變長,壓力也不會平均落在每個人身上。它會讓每個人原本的個性更容易暴露。習慣自己把事情扛完的人,更容易感到疲憊與不公平;對品質高度敏感的人,則更容易對現況感到失落與無力。如果這些反應沒有被好好理解,就很容易被誤解成抗拒或情緒化。但站在管理的位置看,真正需要被調整的,往往不是情緒本身,而是同仁對角色的理解是否已經跟上團隊正在發生的變化。

=> 深入閱讀...

2026-01-22  -  duncan Email  -  15  -  小公司當伯特 - 讀者回應

本次公開演講結束後,主辦單位安排了一場延伸的技術座談,作為對演講內容的進一步討論與交流。與會者包含學術研究者、醫療臨床人員、醫院資訊與 AI 團隊,以及實際參與系統開發的工程人員,討論重心聚焦於大型語言模型與多模態系統在醫療場域中的實際應用問題。這場座談以開放問答的形式進行,圍繞著模型角色定位、系統設計邊界、資料與評估方式等議題,延伸出多項具體而實務導向的技術討論,成為本次演講之外,另一段重要的交流內容。

L1030724

一、LLM 在醫療系統中的角色定位與責任邊界
在這場延伸對談中,最早被反覆提出的問題,圍繞在大型語言模型是否適合直接參與醫療決策,以及一旦系統產生錯誤時,責任應如何界定。這類提問來自不同角色的共同焦慮,無論是臨床端、資訊單位或系統開發者,都意識到醫療場域與一般應用最大的差異,在於錯誤本身即可能帶來實質風險,而非僅是體驗不佳。當語言模型具備高度擬真的表達能力時,更容易讓使用者誤以為其具備判斷與決策資格,這也使角色定位成為設計初期無法迴避的問題。

對此陳縕儂教授提出她的看法:「LLM 在醫療系統中應被視為輔助工具,而非決策主體」。模型可以協助整理資訊、補充背景知識,甚至引導使用者思考,但不應被賦予做出診斷或臨床判斷的責任。這樣的定位並非限制技術能力,而是回到系統設計的初衷,確保最終判斷仍掌握在人類專業者手中。

在實作層面,關鍵不在於模型「怎麼說」,而在於系統是否能清楚界定「什麼情況下可以回應、什麼情況下必須拒答或轉介人工」。這種界線若僅仰賴提示詞或語氣調整,往往難以在複雜情境中維持一致性。相較之下,透過架構層面的設計,例如在生成前加入風險判斷、將高風險問題導向固定流程,才能建立較為穩定的防線。對於醫療這類高風險場域,結構性的限制遠比事後修正輸出內容來得可靠,這不僅是技術選擇,更是責任意識的體現。

=> 深入閱讀...

2026-01-04  -  duncan Email  -  173  -  資訊工程 - 讀者回應

陳縕儂教授為國立臺灣大學資訊工程學系教授,長期投入自然語言處理與對話系統研究,研究主軸涵蓋語言理解、口語對話系統、機器智慧與深度學習應用。她曾於美國卡內基美隆大學取得博士學位,並於微軟研究院從事研究工作,近年持續關注語言模型在實際應用場域中的可靠性與可控性問題。此次研討會即以「搜尋、驗證與決策」為主軸,聚焦大型語言模型在專業領域對話與決策任務中所面臨的結構性限制。

L1030691

一、大型語言模型的訓練架構與限制
演講一開始,陳教授回顧 GPT 類大型語言模型的基本訓練方式。此類模型以序列預測為核心,透過大量語料學習詞與詞之間的條件機率關係,建立語言生成能力。這種訓練方式能有效掌握語言表面結構與常見語境,但本質上仍是機率模型,並未具備對事實正確性的內在驗證機制。

接著說明大型語言模型常見的三個訓練階段,包括以海量資料建立基礎能力的預訓練、透過人工標註資料學習任務指令的指令微調,以及利用人類回饋進行行為對齊的強化學習。這些訓練流程能改善模型回應的可用性,但並未根本解決模型對知識正確性的掌握問題。

在此架構下,長尾知識成為關鍵限制。高頻出現的通用知識較容易被模型記憶與重現,而專業、低頻或語意相近但差異細微的知識,則容易在生成過程中被錯誤拼接,形成幻覺。陳教授指出,這類結構性問題在醫療等高風險場域中特別需要被正視。

L1030700

=> 深入閱讀...

2026-01-04  -  duncan Email  -  155  -  資訊工程 - 讀者回應

過去我們使用 AI 的方式,很像是在圖書館查閱資料:你問一個問題,它給你一個答案。但近年來技術的發展進入了 Agentic AI(代理型人工智慧)的時代,這不再只是技術的升級,而是一場工作模式的革命。它並非單一模型或特定技術,其核心特徵在於 AI 不再只是被動地回應指令,而是能在給定目標與限制條件下,自行規劃行動、拆解任務,並持續修正執行路徑。相較於傳統以單輪提示為主的使用方式,Agentic AI 更接近一個能長時間運作的執行者,而非即時問答工具。

這類系統通常具備幾個共通元素。首先是狀態感知能力,能記住目前的進度與未解決的問題,避免每一次操作都重新開始。其次是規劃能力,能在實作前先產出行動計畫,而不是直接生成結果。最後則是自我修正機制,當執行結果不符預期時,能回到前一步調整策略。這些能力往往是透過多階段提示、任務文件與工具調用組合而成,而非模型自發產生。

也正因為這樣,Agentic AI 的表現高度依賴人類提供的上下文品質。若目標模糊、限制不清,系統很容易在細節中迷失;反之當任務邊界明確、背景資訊完整,它便能展現高度一致且可預期的行為。這使人與 AI 的關係從單向下指令,轉為共同維持一套運作框架。需要注意的是,Agentic AI 並非萬能,它仍面臨資源消耗、上下文限制與錯誤累積的問題,需要人類介入驗證與判斷。從實務角度看,它更適合作為一種擴充工作能力的方式,而非取代決策責任的角色。理解它的能與不能,才是技術價值的關鍵。

在 Agentic AI 的運作框架下,各產業正經歷從「自動化」到「自主化」的轉變。以下是我自己將蒐集到的資訊,初分六種大項的應用實況、作業模式與成熟度分析:

1. 軟體開發與技術維護(成熟度:高)
軟體開發是目前 Agentic AI 最成熟的領地。早期的 AI 僅能提供程式碼補全,而現在的代理系統如 Cursor、Windsurf,以及 Google 最新發布的 Antigravity,已演變為「代理優先」的開發平台。這些代理能自主掃描整個專案庫、理解複雜邏輯,並產出「工件(Artifacts)」,包括任務清單、實施計畫與自動化測試報告。

FireShot Capture 086 - Replit – Build apps and sites with AI - Replit - [replit.com]

具體作業上,開發者只需描述功能需求,AI 代理便能自主跨檔案修改代碼、執行終端指令、跑單元測試,甚至開啟內建瀏覽器驗證前端 UI。當測試失敗時,代理會進入自我修正循環(Self-correction loop),回溯錯誤原因並自動調整路徑。這使開發者從「編寫者」轉為「指揮官」,專注於架構審核而非細節 debug。目前此類工具已成為工程師的標配,顯著縮短了從 PoC 到上線的週期。

=> 深入閱讀...

2025-12-30  -  duncan Email  -  199  -  資訊工程 - 讀者回應

近期我在開發生成式照護機器人的過程中,「Agentic AI」這個詞開始頻繁出現在各需求單位的討論。只是談得越多,我反而越擔心,因為不同角色對它的期待落差很大。有人希望它能自動做出決策,有人則只是把它視為更聰明的助理工具。如果只是停留在名詞層次,很難判斷這樣的技術究竟適不適合真正進入產品開發流程,更遑論落地在高度受限的醫療場域。

a-001

在我的理解中,所謂的 Agentic AI 並不是指某一個特定模型或新名詞,而是一種工作方式的轉變。它不再只是被動回應指令,而是在給定目標與限制條件後,能自行規劃行動、拆解任務,並在執行過程中不斷修正路徑。這類系統通常具備狀態感知、任務規劃,與自我修正的能力,能長時間維持上下文,而不是每一次都從零開始產生答案。也正因為這樣,它的表現高度依賴使用者所提供的背景資訊與邊界設定,一旦脈絡不清,就很容易過度延伸,甚至產生錯誤的行為。

基於這樣的特性,我覺得光靠聽別人的經驗分享,或是網路上的文章跟影片,無法真正理解 Agentic AI 的能跟不能。於是我選擇從自己最熟悉、但早被時間跟忙碌給擱置的舊專案下手,透過實際操作來觀察,當 AI 被賦予更多主動權後,整個開發流程會發生什麼樣的改變,又在哪些地方仍然必須由人工來介入跟收斂。

=> 深入閱讀...

2025-12-29  -  duncan Email  -  201  -  資訊工程 - 讀者回應

:: 下一頁 >>