欧美午夜精品久久久久免费视/欧美黄色精品/国产一级A片在线播出/A片免费视频在线观看

AI智能體究竟能做什么?看完這個你就知道了
2024-01-14 03:00:36 歡樂點

前段時間,前特斯拉經理、大牛的一句話,引發了業內的關注。

在7月初的一次開發者會議上,宣稱:“我被手動駕駛分了心,AI智能體才是未來!”并表示將來會竭力投入對智能體的研制工作中。

雖然,早在2016年,當開始在工作時,就早已錨定了智能體的方向,只是因為當時的研究方式還不成熟,所以才轉去做了手動駕駛。

這么,這所謂的“智能體”究竟是哪些?為何會讓那位AI大牛長久地念念不忘?

假如用一句話來回答這個問題,我們可以說:

智能體的出現,除了是AI發展的下一個方向,也是其真正走入人類生活的開始。

1何謂智能體

究竟哪些是智能體?

假如我們將現今的生成式AI,稱作一個人的話,這么它只具有了腦部(大語言模型),但卻沒有身體,因而只能躺在服務器上,做一些處理文字、生成圖片的工作。

而智能體,就相當于是大模型的“身體”,有了它,大模型能夠在更多的領域施展身手。

那智能體到底能做哪些?

近來,一個名叫Fable的初創公司,發布了一個節目統籌智能體(),就像一聲炸雷炸響,讓人們再度見證了智能體的強悍。

通過這樣的智能體,Fable制做出了一集完全用AI拍攝的《南方景區》!

從導演、動畫、導演、語音、編輯……到劇集制做的全流程,都是由AI完成。

在整個制做環節中,通過自然語言,給不同的智能體分配了各自的目標,人類編劇只須要給出一個高層次的構思提示(標題、概要、事件),這種AI智能體才會開始「自導自演」。

以后,人類幾乎就不用進行任何干涉了!

在制做過程中,不同的AI智能體,兼任了不同的角色,如藝人、導演、剪輯等,它們彼此分工合作,相互配合,最終完成了整部電影的制做。

而同樣的,類似的案例,也出現在前段時間北大團隊的研究中。

7月19日,北大團隊用塑造了個零人工濃度的“游戲公司”——,只要你提出看法,從設計到測試的完整流程,都由AI幫忙搞定。

Fable與制做《南方景區》的思路類似,在游戲開發的環節中,的十多個智能體也分別兼任了這個“公司”中的企劃、程序員、設計師等不同的崗位。

在項目開始時,人類可以對那些AI提出一個大約的看法或創意。

然后,各個智能體之間都會進行一系列討論、制作、測試的環節,整個過程完全不須要人類的參與,全是手動進行的。

由此可見,有了智能體以后,大模型能夠按照人類給出的規則和策略來作出決策,而不須要人類的干預或指令。

在這個過程中,智能體就會通過習得的經驗或知識,來改善自己的性能和適應性,并依照目標函數或獎勵函數來評估自己的行為。

而這樣的能力,是往年的大模型(LLM)無論怎樣都不具備的。

因而,LLM雖然再聰明,也是一個沒有身體的“大腦”智能AI,而正是智能體的出現,讓LLM有了行動的能力,有了自主完成復雜任務的能力。

而這樣的能力,正是LLM下一階段進行在應用層面進行落地的關鍵。

2國外智能體進展

既然智能體如此重要,那國外在這方面發展得怎么了呢?

在去年的2023世界人工智能會議上,聯匯科技發布了基于大模型自主智能體(AutoAIAgent)——OmBot歐姆智能體,并針對典型場景需求,推出了首批應用。

要想構建一個真正的智能體,最關鍵的地方,就在于讓AI不依賴人類來指導命令,才能依據任務目標,主動完成任務。

而要想實現這點,就必須讓AI具備認知、記憶、思考、行動等幾大核心能力,使之就能感知環境、自主決策,而且模仿人類腦部工作機制。

在這方面,聯匯科技多年的研究成果——歐姆大模型3.0,成為了蘊育OmBot歐姆智能體的搖籃。

歐姆大模型3.0培養智能體的思路是:在智能體的眾多能力中,認知和思索能力是最關鍵的。

而要鍛練這樣的能力,就要通過大量的開放辨識、視覺問答等訓練方法,來讓智能體從被動的辨識轉為主動推理智能AI,并自主提出解決方案。

比如通過讓智能體觀看不同的圖片、視頻,并讓其通過語義去理解和描述其中的目標。

而之所以要選擇開放辨識、視覺問答為主的訓練方法,是由于在各個行業中,都存在著大量的特定場景和任務,須要對視頻中的內容進行精準的辨識、分析。

但這種場景和任務,常常是十分細分和多元化的,無法用通用的模型和技巧來滿足,于是就導致了各行各業對智能辨識的大量長尾需求。

在對這種視覺信息進行剖析的過程中,歐姆大模型會通過多輪對話推理的機制,將圖象、視頻、以及相關的問題或反饋等輸入轉換為特點向量,并儲存在一個記憶單元中,

然后,大模型的解碼器都會負責按照記憶單元中的特點向量生成最終的回復。

在對一張張圖片,一段段視頻的對話問答中,歐姆大模型會將視覺模型和語言模型進行細細度的對齊,讓其可以理解人類指令,并合理作答。

這么,這種經過了不同行業視覺數據磨煉的智能體,后來如何了?能在實際場景中詮釋實力了嗎?

目前,歐姆智能體的主要應用場景,大致分為三類:智慧店長、文檔處理、視頻剪輯。

假如說,智能體最重要的能力是其是否具備自主剖析、決策的能力,這么我們不妨將歐姆智能體在這三大場景中的表現,與傳統手段進行對比,瞧瞧其是否具有了真正意義上的智能體的特點。

3解決“落地恐懼”

簡單來說,智慧店長主要就是通過與攝像頭視覺信息結合,借助歐姆大模型智能辨識店內發生的一切。

在這方面,傳統的攝像頭只能提供視頻監控的功能,未能對視頻畫面進行智能剖析、處理、交互和反饋。

而具備了智能體后,智慧店長能夠通過與攝像頭視覺信息結合,辨識店內發生的一切,并自主決策提示交互信息。

比如實時檢測和剖析客流量、客戶特點等數據,遇見突發情況時,還看手動報案和處置店內的安全隱患。

在文檔處理方面,根據聯匯科技的說法,歐姆智能體最大的優勢,是可以將專業知識有效集成到向量數據庫,并儲存記憶,產生專業機器人。

而一個具備了智能體的大模型,與傳統的行業垂直類大模型相比,最奇特的優勢,是其持續學習和適應能力,而非依賴于靜態的數據集。

在這方面,只能說歐姆智能體具備了其持續學習的基礎。

由于向量數據庫與傳統數據庫相比,采用靈活的數據結構,如多模態的數據支持,而將不同結構的知識進行整合,正是持續學習的基礎。

但其是否真的具備這樣的持續學習能力,恐怕還要進局長時間的觀察。

而在視頻剪輯方面,AIGC小歐可以成為媒體、文化、游戲等行業的剪輯助手。通過AIGC實現媒體視頻素材的一鍵成片。

可以說,這是智能體能力彰顯得最直接的一個方面,通過語言理解能力,智能體在剪輯過程中,可以手動根據文案內容,對不同鏡頭添加愈發細節的視頻鏡頭描述,因而省去了人工制做視頻中,冗長的文字與鏡頭之間的匹配工作。

從上述幾點來看,歐姆智能體確實具備了一定的智能體特點,但是,盡管這么,在其商業化落地的過程中,依然會面臨不少挑戰。

從目前歐姆智能體的落地方向上來看,其本質上走的還是一種“松耦合”的技術路線。

所謂的“松耦合”,簡單來說,不同任務分解,通過不同智能體來完成,最后通過大模型來完成手動化調度和協作。

例如語言大模型來學習對話、視覺大模型來辨識地圖。

這類智能體,盡管從不像人一樣有綜合智能,但從成本和可行性上,卻能更快落地。

但是,這樣的“松耦合”路線,因為技術壁壘并不高,在競爭中很容易受到同類型智能體的擠壓,因而造成毛利率不斷下滑,以至于技術紅利很快走到盡頭。

到了那時,一種端到端的,一個大模型能夠包辦所有的“緊耦合”路線,都會成為行業共同的期許。

但這樣一種集合了多種智能,能適應各類任務的智能體,必將蘊涵了更多技術濃度頗高的“硬科技”,而國外團隊是否能一一擊潰那些難關,仍是個未知數。

本文源自阿爾法工場

免責聲明:部分文章信息來源于網絡以及網友投稿,本站只負責對文章進行整理、排版、編輯,出于傳遞更多信息之目的,并不意味著贊同其觀點或證實其內容的真實性,如本站文章和轉稿涉及版權等問題,請作者在及時聯系本站,我們會盡快為您處理。

歡樂點

留言咨詢

×