由於台灣詐騙事件總是持續發生中,加上最近很多人都在大談生成式ai,彷佛人人都是這領域的高手專家似的,於是就來親自實測看看生成式AI究竟能不能分析詐騙話術!
[實測] Claude 3、Google Gemini Pro v1.0、ChatGPT-4 Turbo - 詐騙對話紀錄文本分析測試 - 巴哈姆特小屋
如果對「Ai推理」很有興趣,那我建議去讀這四篇實測文章:
[有雷]以「愛、纏、殺:誰是恐怖情人?」進行ai模型推理測試 (以多個主流Ai模型,同時進行透過多輪對話內容紀錄的上下文分析、推理,藉此找出背後兇手到底是誰?本紀錄片是出自於美國當地真實刑事案件。)
Claude 3模型與Google Gemini Pro v1.0模型的視覺推理對決 (兩個主流Ai模型的視覺推理比較。)
人工智慧模型的前因後果理解挑戰:以ChatGPT與律師需求為例 (多個主流Ai模型,同步進行繪圖推理的比較。)
探索GPT模型:學術優越性與推論挑戰 (多個主流Ai模型,同步進行視覺推理的比較。)
順道爆個雷,目前處於預覽測試中的Google Gemini Pro v1.5模型,已經可以直接分析、推理擁有大量複雜非語言資訊內容的桌遊影片,其程度能與人類專家有得比。(例如:魔法風雲會、遊戲王決鬥大師、爐石戰記、台灣麻將、撲克牌遊戲。)
這邊解釋一下什麼叫視覺推理?
例子1:上班族為何會一直經常習慣性的不斷看著手錶、很在意時間?
例子2:上學時間,學生為何要邊看著時間,邊急忙衝進學校教室內?
例子3:為何看到指針與分針集中在12點的位置時,人們就會知道中午要去買便當?
難不成這三個例子上,是在時間軸上面已經有事先寫好什麼prompt嗎?
顯然是沒有任何肉眼可見的prompt,僅僅只是因為:
1.害怕上班遲到被扣薪水、老闆斥責。
2.害怕被老師寫聯絡簿告知家長或留下來當值日生。
3.午休用膳時間。
類似於這些思考過程就是所謂的視覺推理,而且都是基於非文字資訊,而是透過視覺內容,自行起發的思考行為。至於文字推理就不用說,就是單純根據文字內容記錄或是多輪對話的上下文,所進行的分析及推論。
Q:那AI推理這應用可以在哪裡變現?
大數據廣告投放行為。(根據用戶經常閱覽點擊的網站內容、GPS地理位置、音訊,來讓AI模型進行分析、推理、建議選擇適合推播、投放相對應的客製化廣告內容。)
如果對「Ai多模態」有興趣,那我建議去讀這兩篇文章:
OpenAi付費的ChatGPT-4 Turbo與Copilo上的ChatGPT-4 Turbo模型有一樣嗎?
AI 模型學會思考,研究人員提出 Quiet-STaR 演算法
(使用外掛插件的大語言模型,並不等於多模態的Ai模型,而具有多模態架構的Ai模型本身,則又與輝達主打的實體機器人市場有著完全密不可分的發展關係。)
具備多模態的AI模型與實體機器人的關聯性:
由於實體的機器人,仰賴的就是模型架構本身賦予的可執行之能力範圍,而非仰賴手動tag大量的外掛插件來運作,例如:(視覺推理)圖片+文字來分析上下文、推理身分與意圖、同時推理圖片中的物品可能是用在哪些情境上、透過內容決策判斷選擇相對應的具體行為或完成事件的優先順序、先急後緩,這些都是不屬於海量外掛可以自主完成的事項,因此,光看人類本身也不需要tag各種外掛插件,就已經能進入365種行業類別自主學習如何工作賺錢了。
延伸閱讀:
〈樺漢法說〉布局AI應用、機器人商機 聚焦機器視覺應用
還請各界高手前來不吝分享、指教與修正,但不歡迎沒憑沒據的話題炒作。