微美全息基于深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)開發(fā)高效的計(jì)算機(jī)生成全息技術(shù)
2023-04-18 15:47:56AI云資訊736
數(shù)字全息技術(shù)是一種基于干涉和衍射的物體波的記錄和回放技術(shù)。然而,由于光學(xué)干擾容易受到環(huán)境的影響,記錄過程總是受到許多因素的影響。計(jì)算機(jī)生成全息(CGH)技術(shù)是一種通過編碼相干光波前的強(qiáng)度或相位來獲得自定義光場分布的光場調(diào)制技術(shù)。對于僅相位計(jì)算全息,可以實(shí)現(xiàn)顯示的圖像,而不受孿生圖像的干擾。空間光調(diào)制器(SLM)技術(shù)及超材料膜的發(fā)展為該技術(shù)的實(shí)現(xiàn)提供了物理載體。
據(jù)悉,微美全息(NASDAQ:WIMI)通過深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)技術(shù)的為計(jì)算機(jī)生成全息(CGH)提供了新的更高效能的解決方案。深度學(xué)習(xí)可以在運(yùn)算中找到最優(yōu)解或局部最優(yōu)解,使其具有高效的運(yùn)算CGH的能力。CGH已經(jīng)應(yīng)用于全息光阱、3D顯示、平面聚光器和AR顯示器等領(lǐng)域。
計(jì)算機(jī)生成全息(CGH)技術(shù)的是通過逆解自定義光場來獲得最佳波調(diào)制。同時(shí),圖像質(zhì)量受到SLM調(diào)制精度的限制,通常很難表示目標(biāo)光場。在實(shí)踐中,計(jì)算全息圖的求解始終是近似值,需要數(shù)值方法來確定可行的全息圖,以獲得最佳編碼波前。目前在CGH的計(jì)算通常采用迭代算法,通過演進(jìn)GS算法設(shè)計(jì)了非迭代方法來節(jié)省計(jì)算時(shí)間。盡管有所提升,但是由于散斑噪聲、下采樣效應(yīng)和共軛圖像干擾,這些非重復(fù)方法在重建過程中總是會(huì)導(dǎo)致圖像質(zhì)量差和空間分辨率低。在利用深度學(xué)習(xí)技術(shù)上,U-net結(jié)構(gòu)已經(jīng)在CGH問題上進(jìn)行了嘗試,并取得了初步成功,但U-net在計(jì)算全息問題中獲得的全息圖存在降低重建圖像質(zhì)量的缺陷。傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)依賴于卷積濾波器和非線性激活函數(shù),這意味著假設(shè)處理后的數(shù)據(jù)是線性可分的。然而,圖像編碼、全息加密、頻率分析等問題很難用線性可分函數(shù)來描述,簡單的卷積和反卷積總是局限于某個(gè)區(qū)域,以提高運(yùn)算效率。U-net無法利用和重寫全局信息,這意味著光學(xué)圖像處理非常薄弱。
公開資料顯示,微美全息(NASDAQ:WIMI)開發(fā)高效的計(jì)算機(jī)生成全息(ECGH)技術(shù),是一種基于深度學(xué)習(xí)的計(jì)算機(jī)生成全息(CGH)成像方法,旨在解決傳統(tǒng)CGH方法存在的計(jì)算周期長和質(zhì)量差的問題。該方法采用混合線性卷積神經(jīng)網(wǎng)絡(luò)(MLCNN)進(jìn)行計(jì)算全息成像,并通過在網(wǎng)絡(luò)中引入全連接層來增強(qiáng)信息挖掘和信息交換能力。
該網(wǎng)絡(luò)使用線叉層的混合線性卷積神經(jīng)網(wǎng)絡(luò)(MLCNN)結(jié)構(gòu),并使用“DownSample”結(jié)構(gòu)進(jìn)行下采樣和“UpSample”結(jié)構(gòu)進(jìn)行上采樣。使用神經(jīng)網(wǎng)絡(luò)模型計(jì)算輸入目標(biāo)光場,計(jì)算相位值以模擬光學(xué)實(shí)驗(yàn)結(jié)果,使用損失函數(shù)將目標(biāo)光場與仿真結(jié)果進(jìn)行比較,計(jì)算損失值的梯度并進(jìn)行反向傳播以更新網(wǎng)絡(luò)參數(shù)。
此外,WIMI微美全息高效的計(jì)算機(jī)生成全息(ECGH)方法,可以快速獲得所需的純相位圖像,從而生成高質(zhì)量的全息成像。與傳統(tǒng)基于深度學(xué)習(xí)的CGH方法相比,WIMI微美全息的ECGH技術(shù)可以將網(wǎng)絡(luò)訓(xùn)練所需的參數(shù)數(shù)量減少約60%,從而提高網(wǎng)絡(luò)的效率和可靠性。此外,ECGH技術(shù)的網(wǎng)絡(luò)結(jié)構(gòu)具有很強(qiáng)的通用性,可用于解決各種圖像重建問題,具有很強(qiáng)的實(shí)用性和應(yīng)用前景。
同時(shí),WIMI微美全息的ECGH圖像的非迭代深度學(xué)習(xí)模型MLCNN,它可以更快地計(jì)算全息圖生成。通過成功應(yīng)用ECGH方法,可以獲得了高質(zhì)量、穩(wěn)定的計(jì)算全息圖像?;旌暇€性卷積神經(jīng)網(wǎng)絡(luò)(MLCNN)結(jié)構(gòu)的一大特點(diǎn)是可以計(jì)算數(shù)據(jù)的跨區(qū)域交換,這使得它適用于需要操作全局信息的復(fù)雜光學(xué)函數(shù)。在WIMI微美全息ECGH技術(shù)中,MLCNN模型的應(yīng)用能夠有效地處理光學(xué)函數(shù)的復(fù)雜性。該模型可以處理各種復(fù)雜的光學(xué)函數(shù),從而生成高質(zhì)量的全息圖像。這種全息圖像能夠完美地再現(xiàn)三維場景,使得觀察者能夠獲得更為真實(shí)的視覺體驗(yàn)。與U-net網(wǎng)絡(luò)結(jié)構(gòu)相比,MLCNN模型具有更好的光域適應(yīng)性。這使得它在全息生成和重建方面具有優(yōu)勢,因?yàn)樗梢愿玫靥幚砉鈱W(xué)函數(shù)的復(fù)雜性和光域的變化,計(jì)算機(jī)生成全息(CGH)可以完美再現(xiàn)三維場景的能力,防止視覺疲勞。
微美全息(NASDAQ:WIMI)在基于深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的MLCNN模型框架,開發(fā)的高效的計(jì)算機(jī)生成全息(ECGH)技術(shù)不僅能夠減輕計(jì)算負(fù)荷,還能夠提高全息圖像的質(zhì)量,從而使得計(jì)算機(jī)生成全息技術(shù)更加實(shí)用。此外,MLCNN模型具有高度的靈活性,可以適應(yīng)不同的全息生成任務(wù)。它具有出色的計(jì)算能力和高質(zhì)量的全息圖像生成能力。隨著技術(shù)的不斷發(fā)展,MLCNN模型的高效的計(jì)算機(jī)生成全息(ECGH)技術(shù)會(huì)得到更廣泛的應(yīng)用。
相關(guān)文章
- AIGC智能體生態(tài)大會(huì)聚焦AI融合,微美全息(WIMI.US)構(gòu)建多維AIGC+賦能產(chǎn)業(yè)創(chuàng)新
- Meta擬百億美元投資Scale AI,微美全息端側(cè)多模態(tài)AI加速開啟科技新局
- 英偉達(dá)新一季財(cái)報(bào)再創(chuàng)新高,微美全息筑牢AI算力根基開拓百億市場!
- 騰訊AI數(shù)字人AvaMo落地商用,百度/微美全息加速虛擬人生態(tài)閉環(huán)構(gòu)建
- 蘋果推進(jìn)智能眼鏡暗戰(zhàn)谷歌,Meta/微美全息深耕AR賽道搶占XR市場新機(jī)遇
- 融合深度學(xué)習(xí)與量子計(jì)算,微美全息探索Grover算法量子神經(jīng)網(wǎng)絡(luò)模型
- 打造智能安全生態(tài),微美全息探索大數(shù)據(jù)與區(qū)塊鏈的融合應(yīng)用
- 谷歌I/O大會(huì)將聚焦AI戰(zhàn)略轉(zhuǎn)型布局,騰訊/微美全息力推大模型與核心產(chǎn)業(yè)深度融合
- CyberSense腦機(jī)機(jī)器人研發(fā)突破壁壘,微美全息技術(shù)融合搶占千億未來產(chǎn)業(yè)
- 英偉達(dá)發(fā)布Eagle 2.5視覺語言AI模型,xAI/微美全息憑高性價(jià)比AI模型展實(shí)力!
- 腦機(jī)接口實(shí)現(xiàn)“意念精準(zhǔn)操控”,微美全息關(guān)鍵技術(shù)推動(dòng)向?qū)嶋H應(yīng)用轉(zhuǎn)化
- 蘋果全力研發(fā)增強(qiáng)現(xiàn)實(shí)AR眼鏡,谷歌/微美全息夯實(shí)領(lǐng)先優(yōu)勢開啟空間交互時(shí)代!
- OpenAI推出新一代開源模型,微美全息多線攻關(guān)促AI開源應(yīng)用落地
- Ray-Ban Meta眼鏡獲AI加持,字節(jié)跳動(dòng)/微美全息硬件+內(nèi)容實(shí)力不容小覷
- 山東新政策賦能數(shù)字經(jīng)濟(jì)新動(dòng)能,微美全息5G+AI引擎驅(qū)動(dòng)產(chǎn)業(yè)數(shù)字化躍遷
- 阿里發(fā)布3D數(shù)字人模型開源引關(guān)注,微美全息多模態(tài)技術(shù)為AI虛擬人發(fā)展“添翼”
人工智能企業(yè)
更多>>- 形態(tài)再革新 三星Galaxy S25 Edge給出輕薄旗艦終極答案
- 從超薄曲面屏到全場景AI,傳音手機(jī)推動(dòng)前沿科技落地新興市場
- 神眸BC22+全新上市,重新定義“真無線”智能安防
- 華為《AIDC機(jī)房參考設(shè)計(jì)白皮書》重磅發(fā)布,賦能AI算力基礎(chǔ)設(shè)施邁向新高度
- 億萬克R322A7+服務(wù)器上新,可靠性封神!
- 中科天璣支持CCF BigData 2025“數(shù)據(jù)智能計(jì)算”論壇圓滿召開——攜產(chǎn)界實(shí)踐洞見共探智能時(shí)代數(shù)據(jù)支撐新路徑
- 百年傳奇煥新:讓“RCA之聲”傳遍中國
- 在胡同與北海間流轉(zhuǎn)的光影 佳能EOS R50 V秋日氛圍感體驗(yàn)
人工智能產(chǎn)業(yè)
更多>>- AIDC產(chǎn)業(yè)發(fā)展大會(huì)隆重召開,開啟AIDC新紀(jì)元
- 絢星破局AI落地困境,四大業(yè)務(wù)重構(gòu)企業(yè)智能生產(chǎn)力新范式
- 騰訊啟動(dòng)AI應(yīng)用繁榮計(jì)劃,新一期AI共創(chuàng)營報(bào)名企業(yè)超300家
- 首都機(jī)場“AI繪空港”大賽完美收官,卓特視覺以技術(shù)賦能創(chuàng)意未來
- 打造張江人工智能創(chuàng)新小鎮(zhèn),全國首個(gè)人工智能創(chuàng)新應(yīng)用先導(dǎo)區(qū)再添發(fā)展新引擎
- 人機(jī)共生 · 智啟未來——2025高交會(huì)亞洲人工智能與機(jī)器人產(chǎn)業(yè)鏈展主題發(fā)布
- 北京數(shù)基建發(fā)布“知行IntAct”混合智能體產(chǎn)品,以AI定義城市治理新范式
- 新時(shí)達(dá)“精耕小腦”,與大腦協(xié)同,加速具身智能垂直落地
人工智能技術(shù)
更多>>- 騰訊開源框架 Kuikly 再升級!率先適配 “液態(tài)玻璃”,原生體驗(yàn)更極致
- 外灘大會(huì)首發(fā)! 螞蟻密算推出AI密態(tài)升級卡 實(shí)現(xiàn)零改動(dòng)“即插即用”
- 騰訊優(yōu)圖攜Youtu-Agent開源項(xiàng)目亮相上海創(chuàng)智學(xué)院首屆TechFest大會(huì)
- 2025外灘大會(huì):王堅(jiān)暢談AI變革,普天科技錨定空天算力新賽道
- 騰訊正式開源Youtu-GraphRAG,圖檢索增強(qiáng)技術(shù)迎來落地新突破
- 聲網(wǎng)兄弟公司 Agora與OpenAI 攜手 助力多模態(tài) AI 智能體實(shí)現(xiàn)實(shí)時(shí)交互
- Qwen-Image-Edit 模型上線基石智算,圖像編輯更精準(zhǔn)
- 火山引擎多模態(tài)數(shù)據(jù)湖落地深勢科技,提升科研數(shù)據(jù)處理效能