新京報貝殼財經(jīng)訊(記者羅亦丹)北京時間10月20日,DeepSeek(深度求索)在開源社區(qū)Hugging Face上發(fā)布了新模型DeepSeek-OCR。據(jù)了解,OCR(Optical Character Recognition,文字識別)模型是一種用來從圖像中提取文本的技術(shù)。



DeepSeek還上傳了與該模型相關(guān)的論文,在論文中,DeepSeek-OCR被描述為是“一項關(guān)于通過光學(xué)二維映射來壓縮長上下文可行性的初步研究?!睂嶒灡砻?,當(dāng)文本標(biāo)記數(shù)量在視覺標(biāo)記數(shù)量的10倍以內(nèi)時(即壓縮比 < 10倍),該模型可以達(dá)到97%的解碼(OCR)精度。即使在20倍的壓縮比下,OCR 準(zhǔn)確率仍能保持在約60%的水平。這對于長上下文壓縮、大語言模型中的記憶遺忘機制等研究領(lǐng)域展現(xiàn)了相當(dāng)大的潛力。


編輯 岳彩周

校對 柳寶慶