人工智能技術(shù)加持,新一代通用視覺技術(shù)體系“書生”正式發(fā)布


中國產(chǎn)業(yè)經(jīng)濟(jì)信息網(wǎng)   時間:2021-11-23





  近日,上海人工智能實驗室聯(lián)合商湯科技 SenseTime、香港中文大學(xué)、上海交通大學(xué)共同發(fā)布新一代通用視覺技術(shù)體系“書生”(INTERN),該體系旨在系統(tǒng)化解決當(dāng)下人工智能視覺領(lǐng)域中存在的任務(wù)通用、場景泛化和數(shù)據(jù)效率等一系列瓶頸問題。

▲ 圖源:上海人工智能實驗室


  目前,技術(shù)報告《INTERN: A New Learning Paradigm Towards General Vision》已在 arXiv 平臺發(fā)布,基于“書生”的通用視覺開源平臺 OpenGVLab 也將在明年年初正式開源,向?qū)W術(shù)界和產(chǎn)業(yè)界公開預(yù)訓(xùn)練模型及其使用范式、數(shù)據(jù)系統(tǒng)和評測基準(zhǔn)等。


  根據(jù)相關(guān)技術(shù)報告,一個“書生”基模型即可全面覆蓋分類、目標(biāo)檢測、語義分割、深度估計四大視覺核心任務(wù)。


  上海人工智能實驗室表示,相較于當(dāng)前最強(qiáng)開源模型(OpenAI 于 2021 年發(fā)布的 CLIP),“書生”在準(zhǔn)確率和數(shù)據(jù)使用效率上均取得大幅提升。具體而言,基于同樣的下游場景數(shù)據(jù),“書生”在分類、目標(biāo)檢測、語義分割及深度估計四大任務(wù) 26 個數(shù)據(jù)集上的平均錯誤率分別降低了 40.2%、47.3%、34.8% 和 9.4%。


  據(jù)了解,通用視覺技術(shù)體系“書生”(INTERN)由七大模塊組成,包括通用視覺數(shù)據(jù)系統(tǒng)、通用視覺網(wǎng)絡(luò)結(jié)構(gòu)、通用視覺評測基準(zhǔn)三個基礎(chǔ)設(shè)施模塊,以及區(qū)分上下游的四個訓(xùn)練階段模塊。


  轉(zhuǎn)自:IT之家

  【版權(quán)及免責(zé)聲明】凡本網(wǎng)所屬版權(quán)作品,轉(zhuǎn)載時須獲得授權(quán)并注明來源“中國產(chǎn)業(yè)經(jīng)濟(jì)信息網(wǎng)”,違者本網(wǎng)將保留追究其相關(guān)法律責(zé)任的權(quán)力。凡轉(zhuǎn)載文章及企業(yè)宣傳資訊,僅代表作者個人觀點,不代表本網(wǎng)觀點和立場。版權(quán)事宜請聯(lián)系:010-65363056。

延伸閱讀

熱點視頻

政策協(xié)同發(fā)力 做好“十四五”時期就業(yè)工作 政策協(xié)同發(fā)力 做好“十四五”時期就業(yè)工作

熱點新聞

熱點輿情

?

微信公眾號

版權(quán)所有:中國產(chǎn)業(yè)經(jīng)濟(jì)信息網(wǎng)京ICP備11041399號-2京公網(wǎng)安備11010502035964