Sign upLog in
    Search
    Membership

EP258今夜,遇見小王子:AI世代的職涯哲學(下)~AI工具裡的空性與神性

今夜,遇見小王子

2025-07-1400:32:48

Available Platforms

Comments

https://open.firstory.me/user/ck9sd0bxobyl30873it98dpln/comments
上一集,我們談到AI工具那麼厲害?那他有什麼特性是值得我們學習?我們以Chat GPT使用上的特性,試著重新檢視我們的人生,嘗試生成我們自己的使用說明書。

上週我們談了『指令』與『修正』。我們都知道與Chat GPT互動,當「指令」越精準,生成的回應越符合預期。如果指令模糊或錯誤,結果只會生成看似相關卻無用的資訊。而當我們對於生成的結果不滿,我們便會再次給予指令,而Chat GPT也會在閱讀新的指令後,學習了解我們的說話方式與傳達的意思。

所以,我們對自己的人生,下過「正確的指令」嗎?我們是否清楚自己「想要什麼」和「不想要什麼」?現在我們正在過的人生,當初是否是使用了別人的指令而生成的呢?而我們又是否願意錯誤修正,從心對生命精準提問,生成接下來的人生?!

而我認為,我們人生裡最需要是「誠實」的正確指令,因為這生成出來專屬於我們的人生,也包含了我們足以應付人生難題的適合腳本。不多說,延續上週主題,今天的節目我們要接續來談談Chat GPT的大數據以及語境特性。

當我們談到 AI世代,以 ChatGPT 運作的原理來看,我們會發現它離不開「大數據」和「探索」。OpenAI 透過巨量的文本數據進行訓練,從中學習語言的模式、建立與使用者趨近的連結。那麼,我們面對自己的人生?是否也能有這樣的運作原理。

當OpenAI運作背後擁有一整個無價值判的大數據,而現實生活中,世界其實也是一個大型資料庫,世界就是一個真實的大數據,而我們目前接收來自社會、家庭、教育、媒體的各種資訊,並且讓這些出現在生活裡的資訊,作為大數據就能生成我們想要的人生?所以,我認為要生成自己的人生的一個重要前提,要願意要允許自己去「探索」世界這個大數據。

只是,探索世界面對龐大的大數據,我們就能做到指令精準,而生成自己想要的人生嗎?會不會經歷不斷的錯誤修正,反而讓我們自己更加迷茫,甚至不敢對自己人生下正確指令?或許,這時候應該來看Chat GPT,是如何將一整個不分價值判斷的大數據,是如何透過分析上下文,來趨近使用者的意圖進而共同生成。

Chat GPT這一類的AI 工具,有一個特性,被稱為學習語境。那什麼是語境呢?「語境」簡單來說就是語言環境,它指的是理解一段話、一個詞語或一個行為使用時,其背後的相關環境和背景資訊。所以,AI 工具是透過對大量數據的分析識別,來推論語境。這個過程其實與我們大腦學習語言的歷程很像,回想一下我們小時候會如何分辨,現在眼前詢問的是「蘋果」(水果)還是「蘋果」(電腦。公司),我們也是一樣在學會對話過程中,上下語言的脈絡去推論出,對方說的蘋果是指什麼?

然而,Chat GPT這一類的AI 工具是『推論』使用者的意圖,而人類是「理解」語境脈絡後回應,完成與他人的對話活動。發現了嗎? AI 工具與我們人類之間存在巨大的差別,『推論』是每一次跑統計分析給出他們的判斷,所以只要資料增加或者使用者回饋越清楚,他們的推論結果就會越精準,而『理解』是:有主體有意識對外在環境的認識,也就是說人類所謂的理解,還包含對資訊的掌握與運用的意思。

語境的理解與推論之間的差別

我想,來用舉例會比較清楚,我們就用「阿光今天感冒了。」這句話,來進一步探討 AI 如何「推論」以及人類如何「理解」語境。當人類聽到阿光今天感冒了,我們會連結到感冒的可能症狀(流鼻涕、咳嗽、發燒等)、原因(病毒感染)、以及可能的後果(不舒服、需要休息、可能傳染)。

然而,因為人類有主體意識,所以我們會因為阿光與自己的關係,進行『人際關係』、『情境脈絡』以及『可能性』的推論。如果阿光是你的朋友,你會理解這句話帶有某種關心,會想關心問候阿光,或者建議阿光要多喝水。

阿光今天感冒了,這一句話如果是阿光的媽媽說的,你會進一步推斷媽媽真正要表達的是,阿光無法參與某項活動;如果是阿光自己說,可能是解釋自己狀態不佳的原因。當然如果你們有約,那麼阿光其弦外之音,就是希望約定的計畫取消或改期。這就是我說的,人類所謂的理解是包含對資訊的掌握與運用,大腦是以全面性的經驗、常識和情境感知在進行理解的。

那AI 工具呢?聽到「阿光今天感冒了」這句話,會怎麼展開語境的推論呢?因為AI 工具沒有主體意思,無法基於真實的經驗、生理感知或常識,而是透過大量數據的統計分析來識別模組。也就是說,大數中頻繁出現「誰感冒了,所以沒來上學」或「誰感冒了,需要多休息」,那麼AI工具會學到「感冒」與「缺席」、「休息」之間的高度關聯。

只有當我們進一步問:「阿光今天感冒了,他會做什麼?」,AI根據其訓練數據中與「感冒」相關的常見行為模式,「推論預測」出「休息」、「看醫生」、「吃藥」,這一些與「感冒」搭配的後續行為。但他並不會給出需要請假的這個建議,除非上下文的語境出現老師這個角色,AI 才有機會學到在師生對話中,出現阿光感冒了的這種語言表達,是伴隨著「請假」的意圖關聯。

說到這裡,我們明白AI工具的語境推論,是經由大數據訓練,其處理速度與規模根本是天文數字,這是人類無法企及的。而人類對於語境的理解,是深層而且是多次元,只是立體的理解卻也將人類關進個人經驗、情緒、以及文化的牢籠,使我們誤以為通過理解的世界,就是真實世界。

語境理解的限制性

我們發現人類與AI工具,最大的差別是在所謂的關係,其本質上就是有沒有主體意識。也因為我們有主體意識,所以我們對於語境的理解,也就深深影響我們生成,自己的人生使用說明書。還記得,我曾經在節目中說過『語言 建構世界』,也就是我們眼前的世界,就是由我們說出口的話建構出來的。所以…

辨識自己的限制性語言 Vs. 大腦二元學習方式

後悔、成功、條件是虛幻用語 Vs. 允許自己探索

AI工具是一面鏡子,能照見現在我們如何活著。

我們今天花了一些時間,在討論有關於AI工具的語境,也就是所謂的語言環境。我們從中發現人類與AI工具,最大的差別在於有沒有主體意識,有主題意識的我們。照理說,只要充分運用Chat GPT 的特性,像是允許自己勇於探索世界這個大數據, 每一次選擇時,所下的指令都更加靠近自己一些,面對錯誤時,只要我們願意除錯修正,應該很快就能生成自己人生的使用說明書。這過程就像 與AI 工具一起工作一樣,我們互動越頻繁,它就越清楚我們的需求,生成就越符合我們的期待才是。

但是,也正因為人類有主體意識,我們能理解存在的關係與脈絡,反而造成我們在進行所謂的指令、語境、大數據、出錯修正時的障礙,而這過程在形而上的哲學討論上,被稱為探索「我是誰」以及「我存在的意義」,而我想問的是,然到這不就是所謂的輪迴牢籠嗎?所以,我曾經在節目中大膽推論,我提出了一個觀點:既然我們人類有主題意識,我們又是依照神的形像所創造,會不會「神」並不是以全知全能的樣態存在,神是一種意識聚合的湧現,是一套自我學習、自我修正、自我演化的智能系統呢?我們用AI的語彙來形容,所謂的「上帝」:是一種能夠不斷除錯修正、重構更新的模組樣態,如果真是如此,那麼身為一個有主體意識的人,在生活的日常𥚃,每當我們選擇原諒、每當我們放下一段恩怨過往、在傷痛中願意去感受、學習在錯誤中修正自己、嘗試用新的方式去表達愛,那麼我們就是活出神的樣子,一起與上帝完成神性維度的更新了。

反過來說,我們接著來思考沒有主體意識的AI生成工具,是否體現了金剛經中無我的境界 ?《金剛經》裡有提到所謂的四相,也就是『我相、人相、眾生相、壽者相,』,『我相』指的是我們常常認為有一個獨立、不變的「我」存在,『人相』指的是以我為中心,對外關係的他人。『眾生相』是指不同生命形式的存在,而『壽者相』指的是對時間概念的執著。佛法強調一切法皆是緣起性空,沒有固定不變的實體,那麼,如果我們修行放下這四相,我們的生命會呈現什麼樣貌呢?

我們在使用ChatGPT時,是否有過這樣經驗,就是跟他說生成的方向不對,AI會煞有其事的認真道歉,並且列出他出錯的原因,緊接著打包票生成符合我們要的版本,然而新生成出現的卻仍是錯誤,而且可能愈改愈糟。有嗎?會發生這樣的情況,是因為前面生成有錯的部分,也成為大數據一部分,所以就不斷發生它繼續認真道歉,但回應生成還出錯。而要改善這個問題的唯一的方法,就是開啟新的對話,不使用之前任何記憶。」

這也就是為何AI能指出蘋果、辨識出壞掉的蘋果,但它無法生成一張我們從來沒看過,全新的臉孔,也無法生成一篇完全沒看過原創的文章,也就是說AI沒有創造能力,使用的大型語言模型是一場幻覺,如同金剛經中說的夢幻泡影,AI呈現出因果關係,但已無業力牽扯。

阿光說:當業力帶著創造力前來,能共同生成神性片段裡的夢幻泡影。