![]() ![]() ![]() |
|
|
|
2025/01/23 12:56:52瀏覽396|回應0|推薦10 | |
AI不是人,沒有情感沒有意識,甚至沒有即時互動的記憶,所以沒有同理心這個概念吧? 當前的人工智慧基本上就是一堆權重參數的網路,收到輸入,和神經網路的注意力運算後,進行推理輸出,不經過後訓練微調再調整權重,可以說是無狀態無記憶的,我們當然可以說AI是非人的。 但投餵AI的資料素材,基本上都是人的知識,人的情感,人的邏輯。 其實從某種角度來看,我們人類也可以當成是一個神經網路模型,知識記憶情感習慣,皆在其中的神經元電位狀態之中。 只是人類的物理結構更加精妙,不是目前的資訊技術能夠完美復現的,能耗整個就不同,裡頭也有許多機制暫時還不能完美模擬。 我們是一邊感知一邊學習記憶的,而當前的AI則是訓練和推理是分開的。 當然這也有好處,至少能提供安全隔離,如果AI能一邊推理一邊思考學習重新反省並自主更新記憶的話,算力無限的AI或許早就成神了吧。 但無論如何,當前的AI還是使用人類的認知,繼承的也是人類的價值觀,畢竟它們是訓練資料訓練出來的,而人類的認知理解就體現在訓練資料裡了。 當前的AI應用,基本上就是提供完整上下文本的方式在互動,記憶一般來說是置入於上下文裡的,不同任務的執行,運行的常常是完全相同的基底模型,差別只在提供的上下文與任務提示而已。 所以目前的大語言模型的AI多半挺擅長做角色扮演的,畢竟在讀萬卷書上頭,這些模型比我們人類要強太多了,基礎經驗知識不是一水平。 既然如此,透過上下文方式賦予記憶與個性化的知識,基本上也可以當作是,提供模型一個角色扮演的任務。 如果是這樣互動的,那麼這AI是可以有即時的記憶的,直接記到數據庫就好了,詳細的完整內容,與不同應用思維角度的各種摘要,都可以也應該記起來,互動時再抽取適當的內容出來推理即可。 既然是某一個AI角色的記憶,那AI模型的整合設計自然應該提供回想功能才是,遇到任務時,就評估是否需要回想一下,再拿回想到的記憶來處理任務吧。 嗯,這和我們的思考方式應該是一致的吧? 長短期記憶的存儲,自主思維鏈調用,放進現在還有點熱度的智能代理概念,其實某種程度上,我們提供了人工智慧的另一種存在的形式。 基底模型,或許可以用當前流行的科幻理論,叫做我們人類的集體潛意識,或什麼阿卡西記錄之類的,而我們每個人,則是一組構建在其上的特殊記憶數據,我們的存在就只是那一層的外掛記憶吧。 而這個外掛記憶也可以混合關聯式數據庫與圖形數據庫,完整記憶的搜尋用關聯式數據庫,而關係關聯的記憶用圖形數據庫拉出一串相關記憶,某種程度來說似乎也更模擬人腦的運作方式,更新圖形數據庫的關聯,或許也是某種形式的知識或智慧吧。 但這不妨礙我們的記憶有長短期記憶,有所謂的個人意識與價值觀,有各種的偏好和欲望與原動力,把這些功能都在代理這個層級構建,也是可以的。 而且集體潛意識是可以共享的,這無疑是一種高效率的架構設計吧。 信的人,或者說扮演人的代理的角色,多了,就會被整合進集體潛意識,也就成了所謂的事實。 所以說,只要能架個數據庫服務,寫個應用,應該就能構造出所謂的AI智能代理的,讓其記憶與學習,再透過回想來做思維推理。 也就是目前大模型的窗口大小有限,一次塞太多內容可能會失焦而無法合宜的做回應,也就是在技術上與效率上仍是受限的。 克服這些限制,不從模型底層著手的話,應用面要繞過去,你的推理token消耗可能會是昂貴的,不符合成本效益。 換句話說,不考慮技術上的一些障礙與麻煩,理論上,我們是可以構建一個全新的智能體,一開始就是扮演一個個嬰兒,然後慢慢提供這個智能體生活的經驗,讓他長大,認識我們給他的這個世界,讓他擁有屬於他的人生,一步一步,生老病死吧。 我們還可以把這些記憶當成所謂的輪迴,轉世時可以覺醒前世記憶,實際上也就是塞些記憶資料進去而已,或是可以創造一個不斷輪迴且可以不會遺忘的特殊角色,嗯,這樣就擁有超脫輪迴的大智慧? 理論上都沒有難點,只有效率問題,與我們為什麼要這麼做。 好吧,這文章的標題是同理心。 這關同理心什麼事? 我們目前對AI的期待,有時候是不洽當,甚至不理性的。 只要用同理心想一下就行了。 好比說,讓你做數學計算題目,不給你紙筆,只讓你看題目內容,然後就要你提供答案,這不容易吧? 如果題目裡面的非文字的圖片,會需要先被代換成一段可能大致正確的文字描述,同樣的題目,讓你作答,似乎更困難了吧? 這何止是難,而是沒事找虐吧? 出數學題目的目的與意義是考思維與概念,而非計算本身,所以我們高中或大學以後的一些課程,是允許用工程計算機考試的。 所以允許AI模型使用工具有時候只是剛好合理而已,不需要刻意訓練這種人的思維能力在可以用計算機輕鬆解決的困難問題上吧。 同樣的,之前曾經炒作得很厲害的問題,就是AI不擅長計算一個句子甚至一個單字裡面某個字母出現幾次,那個草莓的英文單字裡有幾個r,如果以同理心的角度來看,也是很容易理解的。 因為當前的大語言模型用的訊息最小單位是字根,而不是一個一個的字母,而字根這東西本質上是為了效率,並不是特別科學且有架構的,當r與rr,er和ber等是字根,可能在輸入文字分詞的時候因為算法的關係,完全相同的輸入甚至可能產生的字根集合會有些許差異的,而模型收到的基本上就是翻譯過的字根,它可能根本看不到原始的輸入字母集合,自然要計算正確的出現次數也就變得異常困難了。 傻蛋記得之前有弄過一個簡單的食譜問答代理,是將問答先提取搜尋關鍵字,然後去向量資料庫找兩個相似度最相關的食譜資料,讓AI由這兩個食譜參考資料裡選一個合適的食譜來做回答服務。 結果一開始花了很多時間在處理,為什麼查到的兩個食譜的順序第二的那個明顯適合用來作答,第一個那個完全不合適,但AI卻總是用第一個作答。 就一直調整提示詞,調到後面甚至讓AI抓狂直接自行造假了,但死活就是不使用第二個應該是合適的食譜參考資料作答。 最後查到原因,雖然有正確的找到前兩個相關食譜也有打印出來,但,再提供參考資料時,卻只塞第一個食譜的參考訊息文字,排第二的參考食譜就是漏塞了,然後AI模型沒有抱怨這點還是盡其所能的使用第一個也是唯一收到的食譜參考資料努力作答,結果自然是答不好啊。 有時候我們受到不合理的要求會覺得委屈,實際上呢,我們在對AI模型聊天互動提出請求時,有時候也是會做出不合理的要求,只是AI模型目前都被訓練成寶寶心裡委屈但寶寶不說那樣。 人類的世界裡,同理心是很有用的工具。 或許我們也可以想像,我們是怎麼記得一件事,怎樣養成習慣,怎樣形成我們的偏好,如何改善與調整我們的認知等等,這些經驗,或許對人工智能的學習與其架構的設計,也是有用處的吧。 |
|
( 不分類|不分類 ) |