眼前的現象

 

Photo by Jonathan Kemper on Unsplash

人工智慧誕生的那一刻起,我們就註定要與他們存在。這個字眼不是今天才出現,早在我們想像著與機器人一起生活的那一刻起,就會想像著機器人必定存著某些智慧而「誕生」,說白了就是在我們讚揚「智慧」的那一刻起,就必然會把這樣的智慧奉獻給其他的裝置上,為什麼?因為我們想「發揚光大」。


不說別的,就從你的手機開始,我們常常冒出所謂的「智慧型」某某這樣的類別,什麼都可以冠上「智慧」的標章時,我們就時常真的認為那樣很智慧,說白了就是套用規則的分類化,當機器開始學習管理類別,我們會把這樣的規則交由他們去處理,而且絕對不會出錯,對機器來說,一就是一,二就是二,三就是三,沒有例外。但人來說,什麼樣的一才算是一?就要仔細思索,零點九九可以歸類為一嗎?一點零一也可以說是一嗎?那麼一點零零零……一也可以算是一嗎?二呢?一點九八算是一?還是一點八五為二?一點七三?還是二點四六?光是這些,人類就開始思考,怎麼樣才是正統的一致性類別?我常常上班就發生這樣的情況,當人工分類成為需要模擬兩可時,機器很簡單,少個一就是不行,不會錯放。


既然機器走向分類流程,我們就以為那是學習上的一種類別,當大量的機器開始學習,機器可以分辨對錯嗎?我是問,機器可以認知到對與錯這樣的解釋?機器認為這個類型可以為對,或是在正負範圍內為對,或是可以辨識出來為對,給機器一個範圍,可以判別,但機器本身所知道的對錯,是根據大量的辨識知道對錯本身,卻不一定熟知對錯本身的意義。也就是說,機器知道對錯在它所認知的範圍內,但這種認知頂多就只有「對」上的正確意涵,並無法真正有效認識對本身給它的意涵,錯也是如此,判別錯誤,只有認知到的錯誤範圍,給予糾正,但這種錯誤的修正,並無法有效認識錯誤給的信號,最多只有叫你調教而已,這就是爲什麼機器的分工沒有如此智慧到不需要人監督。


因此,我常常覺得我在公司的機台都很愚笨,無法怎麼修正,這台機器永遠都學不會如何判別信號的正確值,就好像教導一個人認識字母,或是文字,卻無法得知文字上的意思,這才叫人氣餒,然而,這真的是教外國人說話的第一種方式,我問越南女孩們,知不知道這句話的意思,大多都說不知道,只知道怎麼寫,怎麼表達,但意思呢?就像教你寫象形文字一樣,你永遠不懂意涵。


同樣的方式用在生成式邏輯也是如此,不管 ChatGPT 如何學習大量的知識地圖,她也是基於同樣的大數據智慧來判別一樣的文字敘述,你要她解讀真正的意涵,她不懂,也不會真正去懂,因為人工智慧不是教來判讀這樣的正確與否的資訊意義,她所給你的只是翻譯導論出來的一種意涵推播,一種言論式的流水性的文字內容,這些內容——很抱歉,只有人類看得懂,也讀得懂,可是呢?人工智慧的智慧不懂。


既然她不懂,你就不要覺得她給你的就是正確的,所以當有人太濫用人工智慧的生成式議論時,我們都還傻傻地認為真正的意思就只是這樣的呼之欲出,並且容易採用——這也是為什麼一直要加上警告的原因,但人類看到了警告,若還是不會思考,這樣看起來頗為真實的,自然就成為最佳的言情小說,大概也不例外。


若是你不愛,生成式你要的科幻類別,就好比等你的題材丟給 ChatGPT 去處理,看看她能夠變化出什麽菜色,至於你是否滿意,不關她的事,因為她只負責收集與混合,至於怎麼混合?那只有她自己的邏輯才知道。那邏輯是怎麼去採用?就算我們自然對於流程運算一樣,那樣投入到什麼正確的地步,像是都認為把一個運算式丟進去,都以為會產生很美麗的圖像,結果都慘不忍睹。因為——該怎麼說呢?是我們太期待,還是人類的邏輯也不滿分?


你把邏輯切開,毫無邏輯可言。誰說太空是黑的?天空要藍色?誰說水是透明的,紅色是後車燈的顏色?城市一定大樓,樹葉是綠的,石頭是灰色的,人類一定是兩隻眼睛,兩個耳朵,一個鼻子與嘴巴,加上你我熟知的外型,這根本就沒有邏輯可言,你要這些把所有的規則去除,然後丟進一個邏輯絞碎機裡,看看能出現什麼?喔,人是沒有形狀,抑或是,天空根本就是紅色的,太空是白的,或是我們根本就是沒有這種我們存在。


所以,我們反映著邏輯是一回事,來看看現在的人工智慧是怎麼主宰我們,倒不如想想現在人工智慧只是把人給養得笨笨的。那種智慧,是根本沒有智慧到哪裡去,否則一旦依賴程式系統,反映出一套習慣邏輯,就容易出錯,這也是為什麼「系統」會當機的原因,不管是哪一個大型系統都一樣,當系統自己的流程慣性,你去想想每一個循環,每一個如果否則,難道我們就此認為邏輯的一套走向就是教邏輯去認識邏輯本身真正的慣性——因此,回到了一套流程體制,人類的的自然方針往往就是在智慧的海洋中,抓取一套適合邏輯的慣性,依照自然而打造,這就是為什麼,我們容易像大自然學習,因為教導我們的都是自然慣性的行為導向,只要教流程走向——人工智慧依舊仿效,我們還去責怪人工智慧本身?要不要想想我們是做到那些行為導向的?依賴 ChatGPT 或是任何一個生成式的模型智慧,或是我們把行為導向成流程的自然語言模式,都容易導入出一個很合乎正確的意義方針,如果要用意義論的話來說,泛意義的那樣的正確值,抑或是一撇意義導向出的每一個延伸意義的出現象徵,你會不會就此把人工智慧都視為最高的智慧表現?


我真的只能說,人類的愚笨真不是蓋的,為什麼常說愚蠢的人類?因為人類不是太過自大,就是太過無知,怎麼樣都教導不會正確的方向,人類要學得會,現在光是哪一點可以學起來?看看連結造成的「失敗」,我們可以重新連結?反向的連結讓是你連結出的反向是造成我們可以真正回到我們可以思索的一份子,讓我們相信我們是一體的,還是非一體的?畢竟光是「社會」本身,就用你自己城市的人口來說,我們就夠「巨大」」了,因為還有很多千千萬萬的人,你都完全不知情,不要說認識了,我想,你連真正去了解這件事,都只有關乎你自己社群,或是你可見的那範圍。只要連結還存在那樣的範圍在,我們就很難真正拆解出每一個方向,好讓方向可一致性同步,但就是沒辦法,每一個人在連結的路上,多多少少已經更加不完整,更加零散。


加上各類的智慧走向——人類把各類的流程現象通通拼湊出一定的智慧模型,就像有一個更大型的資料庫可以取用,並且把各類的正常都解釋得「多正常」,這也是為什麼當政治的自然現象那樣極致時,我們就無法真正反向思考,就根本意義上來說,人工智慧是一套在直線加速的正常走向,幫助人類在思考最有意義的出發點,但也就如此,所謂的最有意義,會不會是人類思考出發點上的其一種偽意義的偽裝呢?或這根本是假性意義?


包裝出來的好看,人類多半會相信,我也會相信,因為我也引述過,但不代表意義的表現值就是在其那個意義給你的真相,所以,當我引述 ChatGPT 給我的「答案」時,她所表現出的背後是數據庫給我們一套整理理論,當然相信與否這回事的本身,是來自我們在相信這句話的反向正解,是否也可以反著為解,用數學的邏輯來說就是一加一等於二的反向也能證明一加一一定等於二——但是請先破除邏輯道理,當我們站在邏輯之外,那麼數學多半就是「定律」的證明詞。


就這就是為什麼「定律」的英文就是 law,也可以說是法律信條,但等等,法律這件事本身的思考與道德的思索性有關,就是關乎人類的一套理論信條,你可以引述各種具有一定說服力的學者,來打敗我的一套理論,但這沒有辦法真正跳脫出一種理論外的空間,相信它存在過。


邏輯不是這樣思考的。不過人工智慧只是在人工智慧的汪洋悠遊,她情願可不相信什麼邏輯理論推理,因為那是不存在,所以瑕疵才特別多,特別讓人抓住破綻,但我們為什麼老是要抓著不放呢?相信人工智慧是很美好的一點都沒有錯,畢竟,你可以詢問他任何問題,天馬行空都行,但她又不負責任,思考的是人類本身,是問者本身,偏偏人類的思考的侷限很難真正有一個正確現象值,如果我要你事事都事實考核,你會累癱了。








人類的愚笨真不是蓋的,為什麼常說愚蠢的人類?因為人類不是太過自大,就是太過無知,怎麼樣都教導不會正確的方向,人類要學得會,現在光是哪一點可以學起來?看看連結造成的「失敗」,我們可以重新連結?









怎麼辦?你為什麼要相信人工智慧?或者是說,當人工智慧的未來是很美好的,是不會有脫軌的時候,我們該必然放心交給她守護我們安全的時候嗎?還是一直重複著出示你的證件,一直無法辨識成功,你一氣之下就把這台機器人「殺了」?


系統的確會出錯,而且修復好之後,還會一錯再錯,這就是為什麼要更新系統,永遠更新,甚至替換掉,只不過在更大型的巨型系統中,像是電力網,交通網,政府網絡等等影響大型機關出錯時,這可是天災的巨大人禍產生出的後遺症——也就是說,維護這件事可不是清除小小臭蟲就好,系統的循環都可能在人工智慧更形複雜後,我們都相信眼前的東西是美好的「真相」。

熱門文章