AIHub獲悉,近日,上海人工智能實驗室聯合商湯科技 SenseTime、香港中文大學、上海交通大學共同發布新一代通用視覺技術體系“書生”(INTERN),該體系旨在系統化解決當下人工智能視覺領域中存在的任務通用、場景泛化和數據效率等一系列瓶頸問題。
基于“書生”的通用視覺開源平臺 OpenGVLab 也將在明年年初正式開源,向學術界和產業界公開預訓練模型及其使用范式、數據系統和評測基準等。
任務通用和數據學習效率是制約當前人工智能發展的核心瓶頸問題。
根據相關技術報告,一個“書生”基模型即可全面覆蓋分類、目標檢測、語義分割、深度估計四大視覺核心任務。
在 ImageNet 等 26 個最具代表性的下游場景中,書生模型廣泛展現了極強的通用性,顯著提升了這些視覺場景中長尾小樣本設定下的性能。
相較于當前最強開源模型(OpenAI 于 2021 年發布的 CLIP),“書生”在準確率和數據使用效率上均取得大幅提升。
具體而言,基于同樣的下游場景數據,“書生”在分類、目標檢測、語義分割及深度估計四大任務 26 個數據集上的平均錯誤率分別降低了 40.2%、47.3%、34.8%和 9.4%。
“書生”在數據效率方面的提升尤為令人矚目:只需要 1/10 的下游數據,就能超過 CLIP 基于完整下游數據的準確度,例如在花卉種類識別 FLOWER 任務上,每一類只需兩個訓練樣本,就能實現 99.7%的準確率。
書生(INTERN)技術體系可以讓 AI 模型處理多樣化的視覺任務
通用視覺技術體系“書生”(INTERN)由七大模塊組成,包括通用視覺數據系統、通用視覺網絡結構、通用視覺評測基準三個基礎設施模塊,以及區分上下游的四個訓練階段模塊。
書生作為中國古代讀書人的經典形象,代表著一個通過不斷學習、不斷成長進而擁有各方面才能的人格化角色:從基礎的知識技能學習開始,到對多種專業知識觸類旁通,進而成長為擁有通用知識的通才。
將全新的通用視覺技術體系命名為“書生”,意在體現其如同書生一般的特質,可通過持續學習,舉一反三,逐步實現通用視覺領域的融會貫通,最終實現靈活高效的模型部署。
當前的 AI 系統開發模式下,一個 AI 模型往往只擅長處理一項任務,對于新場景、小數據、新任務的通用泛化能力有限,導致面對千變萬化的任務需求時,須獨立開發成千上萬種 AI 模型。
同時,研究人員每訓練一個 AI 模型,都需構建標注數據集進行專項訓練,并持續進行權重和參數優化。
這種低效的學習訓練方法,導致人力、時間和資源成本居高不下,無法實現高效的模型部署。
“書生”的推出能夠讓業界以更低的成本獲得擁有處理多種下游任務能力的 AI 模型,并以其強大的泛化能力支撐智慧城市、智慧醫療、自動駕駛等場景中大量小數據、零數據等樣本缺失的細分和長尾場景需求。
通用視覺技術體系“書生”(INTERN)由七大模塊組成,包括 3 個基礎設施模塊、4 個訓練階段模塊
隨著人工智能賦能產業的不斷深入,人工智能系統正在從完成單一任務向復雜的多任務協同演進,其覆蓋的場景也越來越多樣化。
在自動駕駛、智能制造、智慧城市等眾多的長尾場景中,數據獲取通常困難且昂貴,研發通用人工智能模型,對于降低數據依賴尤為重要。而突破“工業應用紅線”的模型,需滿足同時完成多任務、覆蓋大量長尾場景,且基于下游小樣本數據進行再訓練等要求。
借助“書生”通用視覺技術體系,業界可憑借極低的下游數據采集成本,快速驗證多個新場景,對于解鎖實現人工智能長尾應用具有重要意義。
商湯科技研究院院長王曉剛表示,“‘書生’通用視覺技術體系是商湯在通用智能技術發展趨勢下前瞻性布局的一次嘗試,也是 SenseCore 商湯 AI 大裝置背景下的一次新技術路徑探索。
‘書生’承載了讓人工智能參與處理多種復雜任務、適用多種場景和模態、有效進行小數據和非監督學習并最終具備接近人的通用視覺智能的期盼。
希望這套技術體系能夠幫助業界更好地探索和應用通用視覺 AI 技術,促進 AI 規模化落地?!?/span>
