深度學(xué)習(xí)光學(xué)設(shè)計(jì)專題
深度學(xué)習(xí)在光學(xué)設(shè)計(jì)領(lǐng)域的應(yīng)用為光子學(xué)結(jié)構(gòu)的創(chuàng)新提供了新的機(jī)遇和挑戰(zhàn)。未來,隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展和完善,相信它將在光學(xué)設(shè)計(jì)領(lǐng)域發(fā)揮更加重要的作用。
3.學(xué)習(xí)編譯器spyder的使用 4.Shell腳本的使用 第二節(jié):Python基本操作 1.變量、數(shù)據(jù)類型、控制流 2.函數(shù)、文件操作 第三節(jié):深度學(xué)習(xí)環(huán)境實(shí)踐 1.pytorch框架介紹 2.學(xué)習(xí)編譯器spyder的使用 3.Shell腳本的使用 第四節(jié):簡單的深度學(xué)習(xí)網(wǎng)絡(luò)實(shí)操 1.學(xué)習(xí)深度學(xué)習(xí)網(wǎng)絡(luò)學(xué)習(xí)所需文件、運(yùn)行方式 2.了解數(shù)據(jù)集導(dǎo)入、了解網(wǎng)絡(luò)訓(xùn)練、了解網(wǎng)絡(luò)測試 第二天 第四章 最優(yōu)化理論基礎(chǔ) 第一節(jié):引言與基礎(chǔ)概念 1.最優(yōu)化概述與定義 2.最優(yōu)化問題的分類與形式化表示 3.目標(biāo)函數(shù)與約束條件的基本概念 4.最優(yōu)解的定義與性質(zhì) 5.常見的最優(yōu)化應(yīng)用場景與實(shí)例 6.稀疏理論及其分析 第二節(jié):單變量最優(yōu)化方法及其編程(理論+實(shí)操) 1.單變量函數(shù)的最大值與最小值 2.黃金分割法與二分法 3.牛頓法與割線法 4.收斂性與收斂速度分析 5.實(shí)際問題中的應(yīng)用與限制 第三節(jié):多變量無約束優(yōu)化及其編程(理論+實(shí)操) 1.多變量函數(shù)的最優(yōu)化問題 2.梯度下降法與共軛梯度法 3.牛頓法與擬牛頓法 4.收斂性與局部最優(yōu)解 5.凸優(yōu)化的基本理論與方法 第四節(jié):多變量約束優(yōu)化(理論+實(shí)操) 1.等式約束與不等式約束的最優(yōu)化問題 2.拉格朗日乘子法 3.KKT條件與約束優(yōu)化的求解策略 4.內(nèi)點(diǎn)法與序列二次規(guī)劃方法 5.實(shí)際問題中的應(yīng)用與復(fù)雜性分析 第五節(jié):典型最優(yōu)化方法 1.最小二乘法 2.ISTA方法 3.ADMM方法 4.方法編程實(shí)現(xiàn)(實(shí)操) 第三天 第五章 深度學(xué)習(xí)基礎(chǔ) 第一節(jié):深度學(xué)習(xí)相關(guān)基礎(chǔ) 1.了解神經(jīng)網(wǎng)絡(luò)的基本原理 2.了解反向傳播和鏈?zhǔn)教荻扔?jì)算 第二節(jié):主流神經(jīng)網(wǎng)絡(luò)構(gòu)型講解 1.典型卷積網(wǎng)絡(luò)介紹(ResNet、UNet) 2.Transformer 3.MLP 第三節(jié):神經(jīng)網(wǎng)絡(luò)訓(xùn)練策略 1.全監(jiān)督 2.弱監(jiān)督(半監(jiān)督) 3.無監(jiān)督(自監(jiān)督) 4.遷移學(xué)習(xí)(蒸餾、域自適應(yīng)) 第四節(jié):典型神經(jīng)網(wǎng)絡(luò)的搭建及訓(xùn)練(實(shí)操) 主要對(duì)ResNet、UNet等選一二作為例子,搭建全監(jiān)督、弱監(jiān)督、無監(jiān)督等訓(xùn)練模式,進(jìn)行實(shí)操 第四天 第六章 計(jì)算成像實(shí)踐 第一節(jié):基于最優(yōu)化理論的計(jì)算成像設(shè)計(jì)(理論+實(shí)操) (選取典型的計(jì)算成像示例,通過最優(yōu)化理論進(jìn)行計(jì)算重建) 1.目標(biāo)函數(shù)設(shè)計(jì) 2.優(yōu)化算法選擇 (選擇合適的優(yōu)化算法進(jìn)行目標(biāo)函數(shù)的求解,如梯度下降法、共軛梯度法、交替方向乘子法(ADMM)等) 3.噪聲處理與魯棒性增強(qiáng) (在重建過程中考慮噪聲的影響,通過加入正則化項(xiàng)或魯棒優(yōu)化技術(shù),提高算法的抗噪性和魯棒性) 3.實(shí)操示例 第二節(jié):基于深度學(xué)習(xí)的計(jì)算成像設(shè)計(jì)(理論+實(shí)操) (選取典型的計(jì)算成像示例,通過典型的神經(jīng)網(wǎng)絡(luò)進(jìn)行計(jì)算重建) 1.系統(tǒng)架構(gòu)設(shè)計(jì)和數(shù)據(jù)處理 2.深度學(xué)習(xí)模型設(shè)計(jì)及訓(xùn)練 3.算法優(yōu)化策略與實(shí)現(xiàn) 4.性能評(píng)估 第五天 第七章 新興深度神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)實(shí)戰(zhàn)(創(chuàng)新實(shí)踐) 第一節(jié):最優(yōu)化理論的深度展開 1.最優(yōu)化理論和深度學(xué)習(xí)的碰撞 2.如何將最優(yōu)化方法展開成網(wǎng)絡(luò) 第二節(jié):講解優(yōu)化理論的深度展開具體設(shè)計(jì) 1.了解迭代收縮閾值網(wǎng)絡(luò)論文大概 2.準(zhǔn)備和制作數(shù)據(jù)集,參數(shù)的介紹 3.了解迭代收縮閾值網(wǎng)絡(luò)的核心設(shè)計(jì) 第三節(jié):如何從零開開始復(fù)現(xiàn)典型的迭代收縮閾值網(wǎng)絡(luò) 1.學(xué)習(xí)閱讀代碼中的readme文檔 2.了解代碼執(zhí)行的核心思想 3.介紹如何通過終端執(zhí)行命令 第四節(jié):將構(gòu)建的迭代收縮閾值網(wǎng)絡(luò)應(yīng)用于無透鏡計(jì)算成像實(shí)戰(zhàn) 1.了解ImageNet數(shù)據(jù)集的基本內(nèi)容及數(shù)據(jù)集整理 2.如何訓(xùn)練面向無透鏡成像的新興深度神經(jīng)網(wǎng)絡(luò) 課程時(shí)間 深度學(xué)習(xí)光學(xué)設(shè)計(jì) 2024.08.12----2024.08.16(晚上19.00-22.00) 2024.08.19----2024.08.23(晚上19.00-22.00) 騰訊會(huì)議 線上授課(共五天課程 提供全程視頻回放) 深度學(xué)習(xí)計(jì)算光學(xué)成像: 2024.08.16-2024.08.17(上午9.00-11.30下午13.30-17.00) 2024.08.20-2024.08.21(晚上19.00.30-22.00) 2024.08.24-2024.08.25(上午9.00-11.30下午13.30-17.00) 騰訊會(huì)議 線上授課(共五天課程 提供全程視頻回放) 報(bào)名費(fèi)用 課程費(fèi)用: 深度學(xué)習(xí)光學(xué)設(shè)計(jì)、深度學(xué)習(xí)計(jì)算光學(xué)成像 每人每班4680元(包含會(huì)議費(fèi)、資料費(fèi)、提供課后全程回放資料) 報(bào)名優(yōu)惠:提前報(bào)名繳費(fèi)可享受300元早鳥價(jià)優(yōu)惠(僅限前十名) 團(tuán)報(bào)優(yōu)惠:同時(shí)報(bào)名兩門課程8880元 報(bào)名費(fèi)用可開具正規(guī)報(bào)銷發(fā)票及提供相關(guān)繳費(fèi)證明、邀請(qǐng)函,可提前開具報(bào)銷發(fā)票、文件用于報(bào)銷 聯(lián)系人:張老師 報(bào)名電話:13141346157 ( 微信同號(hào)) |
1.行業(yè)新聞、市場分析。 2.新品新技術(shù)(最新研發(fā)出來的產(chǎn)品技術(shù)介紹,包括產(chǎn)品性能參數(shù)、作用、應(yīng)用領(lǐng)域及圖片); 3.解決方案/專業(yè)論文(針對(duì)問題及需求,提出一個(gè)解決問題的執(zhí)行方案); 4.技術(shù)文章、白皮書,光學(xué)軟件運(yùn)用技術(shù)(光電行業(yè)內(nèi)技術(shù)文檔);
如果想要將你的內(nèi)容出現(xiàn)在這里,歡迎聯(lián)系我們,投稿郵箱:service@opticsky.cn
-
bairuizheng:個(gè)人想學(xué)費(fèi)用不低啊(07-21)