【環(huán)球網(wǎng)科技綜合報道】當(dāng)行業(yè)還在卷大模型參數(shù)時,360已悄然在AI的“視力”上實(shí)現(xiàn)了降維打擊。其最新開源的FG-CLIP2模型,憑借對圖像細(xì)節(jié)的極致理解,在多項(xiàng)測試中超越谷歌、Meta同類產(chǎn)品,成為全球最強(qiáng)的視覺語言模型。
FG-CLIP2的核心突破在于解決了“細(xì)粒度識別”問題。這對于正處風(fēng)口的具身智能和商業(yè)智能化至關(guān)重要。想象一下,家庭機(jī)器人能根據(jù)“拿起茶幾上屏幕有裂痕的手機(jī)”這樣的指令準(zhǔn)確行動;安防系統(tǒng)能通過“尋找戴黑色鴨舌帽的可疑人員”瞬間鎖定目標(biāo)。FG-CLIP2讓機(jī)器對世界的理解從“大概”變?yōu)椤熬_”,為真正的實(shí)用化AI奠定了基礎(chǔ)。
作為國內(nèi)較早布局人工智能的企業(yè),360依托搜索、瀏覽器等核心業(yè)務(wù)積累的百億級圖文數(shù)據(jù),以及自研的大規(guī)模高質(zhì)量數(shù)據(jù)集FineHARD,深耕AI底層能力,持續(xù)推進(jìn)中國構(gòu)建自主可控的AI技術(shù)體系。(古雨)