這一次,看完AI真的最新章慌是快要砸掉我的飯碗了。
因?yàn)槿绻悻F(xiàn)在想根據(jù)NeurIPS 2025的國(guó)產(chǎn)公眾最佳論文寫(xiě)一篇公眾號(hào)文章,只需要把它丟給AI并且附上一句話:
幫我解讀這篇論文,號(hào)文并寫(xiě)一個(gè)圖文并茂的看完微信公眾號(hào)推送來(lái)介紹這篇文章。
只需靜候幾分鐘,最新章慌AI就水靈靈地把完整的國(guó)產(chǎn)公眾微信公眾號(hào)科普文章給呈現(xiàn)了出來(lái),來(lái)感受一下這個(gè)feel(上下滑動(dòng)瀏覽):
不得不說(shuō)啊,號(hào)文這個(gè)AI從標(biāo)題開(kāi)始就真的看完把最最最重要的關(guān)鍵信息“NeurIPS 2025最佳論文”精準(zhǔn)抓了出來(lái)。
并且“Gates一下”,最新章慌更是國(guó)產(chǎn)公眾把名詞動(dòng)詞化,是號(hào)文有點(diǎn)語(yǔ)言編輯功底在身上的。
回頭細(xì)看這個(gè)AI處理的看完過(guò)程。
首先,最新章慌它會(huì)根據(jù)這篇論文的國(guó)產(chǎn)公眾內(nèi)容,先處理文字的部分,將文章分為了引言、核心問(wèn)題、破局之道、實(shí)驗(yàn)結(jié)果、深入分析、結(jié)論與展望這六大部分,是符合一篇論文解讀文章的邏輯。
然后AI會(huì)把論文中要引用的圖片和表格進(jìn)行適當(dāng)?shù)牟眉艉蜆?biāo)注,并插進(jìn)文章里面,還會(huì)在圖片下方附上圖注:
一氣呵成,真的是“文字+圖片+排版”一氣呵成。
那么這到底是何許AI是也?
不賣關(guān)子,它就是智譜最新升級(jí)的新一代視覺(jué)推理模型——GLM-4.6V。
在深度體驗(yàn)一波之后,我們發(fā)現(xiàn)寫(xiě)圖文并茂的公眾號(hào)推文,還只是GLM-4.6V能力的一隅。
接下來(lái),老規(guī)矩,一波實(shí)測(cè),走起~
學(xué)生黨看論文,更方便了
首先來(lái)到智譜的官網(wǎng)(https://chat.z.ai/'>https://chat.z.ai/),在左上方模型下拉菜單中選擇GLM-4.6V。
然后根據(jù)任務(wù)的需求,我們可以在輸入框下方快速選擇任務(wù)類型,也可以在工具選項(xiàng)中勾選圖像識(shí)別、圖像處理、圖像搜索或購(gòu)物搜索等工具。
像剛才我們寫(xiě)公眾號(hào)文章時(shí),就選擇了“文檔智讀”功能(會(huì)默認(rèn)勾選“圖像處理”工具)。
研究論文、報(bào)告,更方便了
同樣是在“文檔智讀”功能下,看論文這件事已經(jīng)變得太便捷了。
例如我們上傳Transformer和Mamba兩篇論文,然后附上一句Prompt:
結(jié)合這兩篇論文的圖表,對(duì)比一下Transformer和Mamba模型的異同,并幫我思考一下大模型架構(gòu)下一步該如何發(fā)展?
同樣是幾分鐘后,一份圖文并茂的對(duì)比分析就誕生了(上下滑動(dòng)瀏覽):
可以看到,GLM-4.6V先是對(duì)Transformer和Mamba架構(gòu)分別做了核心特點(diǎn)的介紹;然后以表格和圖文的形式對(duì)二者進(jìn)行了關(guān)鍵維度上的對(duì)比;最后也是對(duì)大模型架構(gòu)的未來(lái)發(fā)展方向做出了總結(jié)。
如此功能之下,不僅僅是對(duì)比看論文,像是研究、分析報(bào)告這類任務(wù)也會(huì)派上大用場(chǎng)。
這一次,我直接“喂”給GLM-4.6V四份財(cái)報(bào)(蘋果、谷歌、亞馬遜和Meta):
幫我對(duì)比這四家公司Q3財(cái)報(bào),圖表形式做分析。
GLM-4.6V的思考過(guò)程同樣是調(diào)取了各個(gè)財(cái)報(bào)中的關(guān)鍵圖表和數(shù)據(jù),然后先是匯總成了一份對(duì)比表格,再對(duì)關(guān)鍵指標(biāo)做了逐一的解析,最終給出了關(guān)鍵性結(jié)論。
甚至你可以不用提供任何資料,只需要一句話就能生成報(bào)告:
搜索一下最近新出“豆包AI手機(jī)”,并生成圖文并茂的報(bào)告。
由此可見(jiàn),在GLM-4.6V的加持之下,解讀論文、報(bào)告,統(tǒng)統(tǒng)都變成了一句話的事兒。
一張圖復(fù)刻B站網(wǎng)頁(yè)版
GLM-4.6V還有一個(gè)特別有意思的功能,它只需要看一眼網(wǎng)站,就能高度復(fù)刻出來(lái)!
我們先截取B站首頁(yè)的截圖:
然后開(kāi)啟“圖片識(shí)別”和“圖片處理”兩個(gè)工具,并簡(jiǎn)單一句話下達(dá)指令:
復(fù)刻這個(gè)網(wǎng)站,網(wǎng)站里包含的圖片也要復(fù)刻出來(lái)。
然后GLM-4.6V就開(kāi)始唰唰唰地“敲代碼”:
同樣是幾分鐘的時(shí)間,一個(gè)高度還原B站首頁(yè)的完整HTML和CSS代碼就搞定了:
我們還可以對(duì)初始結(jié)果做進(jìn)一步的優(yōu)化,例如來(lái)上一句:
把主題變成深色模式。
再細(xì)如頁(yè)面里的排版布局,統(tǒng)統(tǒng)都可以通過(guò)自然語(yǔ)言的方式來(lái)做調(diào)整。
不得不說(shuō),這種玩法可以給前端程序員省了不少的工作量;而且還有個(gè)福利哦——價(jià)格更便宜了。
GLM-4.6V系列相較于GLM-4.5V降價(jià)50%,API 調(diào)用價(jià)格低至輸入 1 元/百萬(wàn)tokens,輸出 3 元/百萬(wàn) tokens。
而且據(jù)說(shuō)GLM-4.6V已經(jīng)進(jìn)入到智譜的Coding Plan套餐里嘍~
長(zhǎng)視頻也是能hold住
在文檔、圖片之后,另一種多模態(tài)——視頻,GLM-4.6V也能處理。
我們以Ilya在多倫多大學(xué)的一段演講為例:
10分鐘時(shí)長(zhǎng)的視頻內(nèi)容,GLM-4.6V只需要幾十秒的時(shí)間就能將其總結(jié)到位:
進(jìn)一步的,你還可以要求GLM-4.6V來(lái)翻譯視頻中Ilya演講的所有內(nèi)容:
以后看AI大佬英文演講的視頻,真的是方便太多了。
萬(wàn)物皆可GLM-4.6V
除了我們上面提到的案例之外,還有好多好多真實(shí)場(chǎng)景都能用的上GLM-4.6V.
例如想解一下一道考研數(shù)學(xué)真題的解法,咱們就把題目截圖丟給它:
幫我解答這道題。
GLM-4.6V會(huì)很快分析解題的詳細(xì)過(guò)程并給出正確答案:C。
再如你看到一張可視化的圖表,想要把它轉(zhuǎn)換成數(shù)據(jù):
同樣的操作,同樣一句話,就可以完成了:
值得一提的是,哪怕是手機(jī)拍照拍下來(lái)的圖片、表格等,也都是可以一鍵OCR的哦~
包括古文手稿:
GLM-4.6V知道需要按照從右到左、從上到下的順序來(lái)閱讀:
還有視覺(jué)任務(wù)中經(jīng)常用的目標(biāo)檢測(cè),在GLM-4.6V這里也是可以搞定的。
例如我們給一張貓咪們的合影,然后Prompt如下:
識(shí)別圖中所有貓的品種。請(qǐng)以合法的JSON格式返回結(jié)果,結(jié)果是一個(gè)list,每一個(gè)list元素對(duì)應(yīng)一個(gè)目標(biāo)檢測(cè)結(jié)果dict,dict的key由label、bbox_2d組成,值分別為檢測(cè)到的貓的品種和結(jié)果坐標(biāo)框。例如:[
{ ‘label’: ‘金漸層-1’, ‘bbox_2d’: [1,2,3,4]}, { ‘label’: ‘金漸層-2’, ‘bbox_2d’: [4,5,6,7]}]
不一會(huì)兒的功夫,GLM-4.6V就會(huì)框出所有貓咪:
{ “label”: “虎斑貓-1”, “bbox_2d”: [95,152,192,825]}, { “label”: “虎斑貓-2”, “bbox_2d”: [185,332,310,852]}, { “label”: “暹羅貓-1”, “bbox_2d”: [295,352,428,902]}, { “label”: “美短-1”, “bbox_2d”: [415,520,508,922]}, { “label”: “緬因貓-1”, “bbox_2d”: [498,262,603,852]}, { “label”: “英短-1”, “bbox_2d”: [603,452,697,872]}, { “label”: “挪威森林貓-1”, “bbox_2d”: [685,120,797,832]}, { “label”: “虎斑貓-3”, “bbox_2d”: [802,482,882,832]}再經(jīng)過(guò)渲染,我們就得到了經(jīng)典的目標(biāo)檢測(cè)效果:
已經(jīng)是開(kāi)源里的SOTA了
從整體實(shí)測(cè)過(guò)程和結(jié)果來(lái)看,GLM-4.6V在體感上是非常絲滑的。
而之所以如此,也離不開(kāi)它背后自身實(shí)力的迭代升級(jí)。
這次智譜升級(jí)的GLM-4.6V分為了兩個(gè)版本,分別是:
GLM-4.6V(106B-A12B):面向云端與高性能集群場(chǎng)景的基礎(chǔ)版GLM-4.6V-Flash(9B):面向本地部署與低延遲應(yīng)用的輕量版
智譜不僅將這個(gè)版本的視覺(jué)推理模型的上下文窗口大小提升到了128K tokens,在MMBench、MathVista、OCRBench等30多個(gè)主流多模態(tài)評(píng)測(cè)Benchmark中,也是取得了同級(jí)別SOTA的結(jié)果!
其中9B版本的GLM-4.6V-Flash整體表現(xiàn)超過(guò)Qwen3-VL-8B,106B參數(shù)12B激活的GLM-4.6V表現(xiàn)比肩2倍參數(shù)量的Qwen3-VL-235B。
除了評(píng)測(cè)榜單結(jié)果之外,智譜還將GLM-4.6V背后的技術(shù)細(xì)節(jié)也亮了出來(lái)——
首次在模型架構(gòu)中將Function Call(工具調(diào)用)能力原生融入視覺(jué)模型,打通從“視覺(jué)感知”到“可執(zhí)行行動(dòng)”(Action)的鏈路,為真實(shí)業(yè)務(wù)場(chǎng)景中的多模態(tài) Agent 提供統(tǒng)一的技術(shù)底座。
評(píng)測(cè)結(jié)果、技術(shù)實(shí)力固然重要,但到了AI發(fā)展的現(xiàn)階段,到底實(shí)不實(shí)用、好不好用才是真正能讓AI應(yīng)用殺出自己一片天地的護(hù)城河。
從這次深度實(shí)測(cè)結(jié)果來(lái)看,GLM-4.6V,絕對(duì)是做到了這一點(diǎn)的那個(gè)AI。
最后,如果小伙伴對(duì)GLM-4.6V感興趣,鏈接就放下面了,趕緊去體驗(yàn)吧~
GLM-4.6V地址:
https://chat.z.ai


相關(guān)文章




精彩導(dǎo)讀
熱門資訊
關(guān)注我們