你,認識 AI 嗎? - 深入淺出介紹 AI 原理及發展

課堂大綱
從圖靈的模仿遊戲說起,讓人類去判斷另一端的是人還是電腦,以及電腦是否具有思考能力的可能性?

簡述 Artificial Intelligence(人工智慧)一詞的由來,源於 John McCarthy 在 1956/8/31 舉辦的 Dartmouth workshop(達特矛斯會議),當時首次出現 AI,之後也以 AI 為名。

接著提到了 AI 的三波發展史,第一波 1956-1976,以邏輯推演為主(導入了數學處理問題),像是迷宮、棋類主題,都可以透過這些演算想辦法處理,但是生活類的問題,卻無法妥善處理,因此迎來首次寒冬。

第二波發展 1976-2006,此時著重於知識(專家系統),透過知識的資料累積,解決了不少問題。但是他還是無法處理過於複雜,以及常識性的問題。這讓人工智慧的發展,迎來第二次寒冬。

第三波發展 2006-至今,延續第二波發展就已經嶄露頭角的神經元網絡,第三波增加了大數據資料,以及機器學習。這個方式是讓機器學習取得一筆大量資料,告訴機器這是什麼東西,由機器去發現特徵。所以在課堂上簡述了 Convolution Neural Network(CNN,卷積神經網路模型的概念),同時也用流言終結者的片段,比較了 CPU 跟 GPU 運算的差異。

人工智慧的領域涵蓋了機器學習,而機器學習的領域,又涵蓋了深度學習。這是 AI、ML、DL 三者間的關係。

機器學習有幾種類別,Supervised(監督式)、Unsupervised(非監督式)、Reinforcement(強化式)。

監督式:資料被標註(Lable),然後告訴電腦相對應的數值,預測結果跟真實結果的差距越少,表示預測的水平越高。這時用 Gradient descent(梯度下降法)來解釋,如何透過這個演算法來取得最佳化的參數。

另外進階舉了一個 Binary classification(二元分類)的範例(判斷資料正或負),提到在三維狀態下,如何找出那個模型,來區別資料數正或負。

提到 XOR problem(互斥或問題),XOR 只有在 OR 的狀態下為 True(真),AND 狀態下為 False(否)。初期的 ANN(Artificial neural network,人工神經網路)無法處理多層神經網路訓練,會導致互斥或無法被有效分割。但多層處理出現後,兩個 Perceptrons(感知器)就能解決這個問題。(利用多層疊加來解決複雜資料的處理)

現今有第三波發展的原因,在於資料集夠大,以及運算處理的能力加強了很多。這讓 Neural Network(類神經網路)的處理結果,優於早先的機器學習方式。

這邊用了一個流言終結者的影片,說明 CPU 與 GPU 處理能力的差異,同時也提到了 Google 提出的 TPU(張量處理器),實際上 TPU 的效能與處理速度,較 GPU 跟 CPU 快了 15-30 倍。

再來提到了 CNN(Convolution Neural Network,卷積神經網路)的技術,這是一個影像識別很強大的深度學習模型。這個方式是將圖片經過各兩次的 Convolution、Pooling、Fully Connected,這就是 CNN 的架構。

實例是用美國 LeCun 手寫郵遞區號的辨識來做為案例(MNIST database),當時結果可以發現用 CNN 的方式錯誤率最低,不過傳統的 SVM 方式,表現也很不錯。

最後提到李飛飛,她啟動了 ImageNet 項目,2012 年的 ImageNet 挑戰賽,多倫多大學的 Geoffrey Hinton、Ilya Sutskever、Alex Krizhevsky 提出了一種 CNN 架構:AlexNet,奪得了冠軍。

課堂結束前,介紹了三本書籍,以及幾個線上課程。其中最有名的當數台灣大學李宏毅教授的機器學習課程

心得
在聽課的當下,不太容易建立起架構,需要在課堂結束後仔細整理,才能瞭解這堂課分享的 AI 脈絡。所以對於上課的學員來說,努力傾聽跟事後的複習是很重要的。而對於授課講師來說,若能利用一些大綱跟脈絡,來幫學員建立起架構,課程內容會更生動一點。

另外舉例的部份,後半段手寫郵遞區號跟圖形辨識的部份,我認為可以多增加一點。就是利用應用的實力,來帶入處理的方式與技術演變。這對於非技術背景的人來說,會更好進入狀況。雖然我自己是資工背景,但數學不是特別好,能聽懂多數內容,是因為前陣子已經被許多線上課程蹂躪過了。

利用數學公式來表達,是必不開的方法。但裡面有些專有名詞,若沒有先做些註記與說明,對數學基礎不好的人,聽到這邊應該是一頭霧水。這部份的建議,在課後問卷裡有提出,已經建議給講師。

對於沒接觸過,完全不懂的東西,要學習勢必會經過所謂的撞牆期。我的方法有點笨,就是多聽、多查、多整理、多吸收,累積久了,似乎也就懂了那一點點東西。而隨著實作增加,掌握度就會越來越好。所謂一步登天,是沒這回事的。

速記
從圖靈(Alan Turing)的文章切入介紹 Can Machines Think?

模仿遊戲

John Searle - Chinese room

strong AI & weak AI

John McCarthy

Dartmouth workshop - Artificial Intelligence

3 Waves of AI

1956-1976
1976-2006 專家系統面臨低谷(無法處理複雜或常識問題)
2006-now

AI 包含 ML(Machine Learning) 包含 DL(Deep Learning)

Machine Learing type

Supervised(監督式)從x找y
Unsupervised(非監督式)只有x沒有y,學到資料本身的特徵
Reinforcement(強化式)從環境當中學習
gradient descent

binary classification

梯度下降

XOR problem

Big Data 的影響,讓類神經效果(neural network)提昇

CPU GPU TPU

Convolution Neural Network 卷積神經網路

ML 與 DL 的差異

郵遞區號辨識案例

SVM CNN

李飛飛(CNN圖型辨識)

李宏毅-機器學習課程





2020-06-09  -  duncan Email  -  1292  -  資訊工程 - 讀者回應

回應管理, Pingbacks:

這篇文章還沒有 回應管理/Pingbacks ...

讀者回應:


你的Email位址將不會顯示在這個站點.

您的URL將被顯示.

允許的XHTML標記: <p, ul, ol, li, dl, dt, dd, address, blockquote, ins, del, span, bdo, br, em, strong, dfn, code, samp, kdb, var, cite, abbr, acronym, q, sub, sup, tt, i, b, big, small>
Enter this code:
authimage

(換行會被轉換為 <br /> 標記)
(將你的姓名及Email及網址記在Cookie中)
(讓使用者可以直接寫訊息給你(不會顯示你的Email).)

上一篇文章: [演講活動心得]Digital Cloud OnBoard: 大數據 & 機器學習下一篇文章: [演講活動心得]與AI對話:漫談聊天機器人