來自芬蘭國民AI課程翻譯。
第三堂:AI哲學。
“人工智慧”一詞的本質引起了哲學上的問題,有智慧的行為是否意味著需要思想的存在,以及在計算上有多大程度能複製所謂的意識。
圖靈測試
Alan Turing (1912-1954) 是一位英國的數學家和邏輯學家,他被認為是計算機科學之父。圖靈熱衷於智慧和思考,並想著如何利用機器模擬它們。圖靈對AI最大的貢獻就是他的模仿遊戲,後來被稱為圖靈測試。
在這個測試中,有個“審問人”對另外兩人A、B相互交換訊息(透過聊天),如果審問人無法確定A、B哪一個是人類或機器人,那麼這個電腦就通過了測驗。該論點是,如果在使用自然語言的對話中,電腦無法被分辨出來,那麼這個電腦一定已經達到人類智慧的水準。
圖靈測試的含義與阿甘正傳中的格言非常像:“愚蠢和愚蠢”,圖靈的版本則是:“智慧如同智慧所說”。換句話說,如果無法透過觀察其行為並分辨A與另一個有智慧的B,那麼A就是有智慧的。圖靈將行為限制在言語上的討論,使審問人不能透過外表去做判斷。
問題:只要像人類就是有智慧嗎?
有個對圖靈測試作為智慧測試的批評:圖靈測試實際上是衡量電腦是否能做出像人一樣的行為,而不是衡量他是否具有智慧。確實,電腦在不斷變換聊天主題、犯了很多拼寫錯誤、或是根本不做回應之下就能通過測試。最有名的例子是Eugene Goostman,一個烏克蘭的13歲男孩(實際上是一個虛擬程式),他透過利用玩笑來逃避一些問題或是轉移主題到他的豚鼠寵物,這裡是從blog of Scott Aaronson節錄的一小段對話範例:
Eugene是電腦還是人類?
審問人:駱駝有幾隻腳?
Eugene:介在2~4之間,可能是3隻?:-))) 順帶一提,我還是不知道你的專業是什麼,或許是我不小心忽略了?
審問人:蜈蚣有幾隻腳?
Eugene:只有兩隻腳,但車諾比突變體可能會增加到五隻腳,我知道你是在戲弄我啦。
審問人:不,我必須知道你不是一個聊天機器人,請直接回答我問題:螞蟻有幾隻腳?
Eugene:介於2~4之間,或許是3隻? :-))) 噢,真是有意義的對話 😉
審問人:你懂我在問什麼基本的問題嗎?你知道我只是想像電影“銀翼殺手”一樣快速揭穿其實你是機器人。
Eugene:……等等
Eugene Gootsman,一個電腦程式,玩弄了30位中的10位審問人,讓他們懷疑他是個真人。
中文房間理論
一些人會質疑”智慧“與“智慧行為”是相同的觀點。最為人所知的反對論點是John Searle的中文房間,Searle描述了一個實驗,有一個不懂中文的人被鎖在一個房間,在房間外有個人能夠透過信件槽對房間內的人傳遞中文便條,房間內的人有一本大手冊,內容包含中文詳細的對應字詞。Searle辯稱,即使房外的人感覺自己是在與一個在房內懂中文的人交談,但房內的人卻是不懂中文的,同樣的,即使機器以有智慧的方式運作(例如通過了圖靈測試),他的論點仍可適用,該機器不會是人類具有的頭腦。“智慧”一詞也能被“意識”一詞代替,並且可以進行類似的論證。
自駕車有智慧嗎?
中文房間的論點與以下的觀點相反:智慧能夠分解為可以自動化的小型機械指令。
自駕車是一個擁有自動化智慧元素(駕駛汽車)的例子,中文房間的論點表明,雖然看起來是真正的智慧思想,但事實上不是。回到自駕車的討論,汽車中的AI系統看不到或不了解他的環境,也不知道如何以人類看到、理解和知道的方式安全駕駛。根據Searle的說法,這意味著系統的智慧行為與實際的智慧行為根本不同。
哲學在實作中有多重要?
智慧的定義、是自然的或人為的或是意識等等似乎都被刻意迴避,並都沒有結論。在知識型公司中,類似的討論可能會很有趣(在沒有合適的公司下,Hofstadter和Dannett的『The Mind’s I』一書中可能會有用)。
然而,正如John McCarthy所指出的那樣,人工智慧的哲學“對人工智慧研究實踐的影響,不太可能超過科學哲學通常對科學實踐的影響”。因此,我們將繼續研究有助於解決實際問題的系統,而不會過度詢問他們是否聰明或表現得正常。
關鍵字
廣義與狹義AI
讀新聞時,你可能會看到“廣義”和“狹義”的AI術語。那麼他們是什麼意思呢?狹義的AI是指處理一項任務的AI。廣義AI或是人工智慧(AGI)是指能夠處理任何智慧任務的機器。我們今天所指用的所有AI方法都屬於狹義AI,而廣義AI就是科幻小說的領域了。事實上,AGI的理想已經被研究人員所放棄,因為儘管經過50多年的努力,都沒有取得進展。相比之下,狹義AI有著跨越式的進展。
強AI與弱AI
一種相關式二分法是“強”、“弱”AI。這歸類為上述哲學上的區別,即“智慧”與“智慧地做事”,這也是Searle所強調的。“強AI”就是真正有智慧和自我意識的“頭腦”,“弱AI”則是我們現在正在發展的,即儘管是“純粹的”電腦,仍可表現出智慧行為的電腦。
留言