Institutional Repository System Of Yunnan Observatories, CAS
基于相位差法和深度神经网络的复杂波前探测技术 | |
刘辉; 金振宇; 季凯帆 | |
申请(专利权)人 | 中国科学院云南天文台 |
专利号 | ZL202211213030.1 |
申请号 | CN202211213030.1 |
2023-01-03 | |
申请日期 | 2022-09-29 |
公开(公告)号 | CN115561825A |
公开日期 | 2023-01-03 |
IPC 分类号 | G01V8/10G06N3/04G06N3/08 |
授权国家 | 中国 |
专利类型 | 发明 |
专利状态 | 公开 |
学科领域 | 计算机科学技术 ; 人工智能 ; 计算机应用 ; 计算机图象处理 |
产权排序 | 1 |
摘要 | 本发明公开了基于相位差法和深度神经网络的复杂波前探测技术,包括如下步骤:收集图像信息、波前相差模拟、训练神经网络计算模型、模型预测;本发明的有益效果是,该基于相位差法和深度神经网络的复杂波前探测技术,用神经网络模型的前向并行计算取代了现有PD方法中的非线性最优化计算,即用一个简单的前向(单向)计算模式,替代了原来复杂的迭代计算模式,获得了一种普适性的波前探测算法模型;神经网络模型的单向计算模式将非线性优化迭代计算分钟量级的求解时间降低至毫秒量级,能够较好地满足复杂动态波前准实时探测的需要,极大地拓展了PD方法的适用领域。 |
主权项 | 1.基于相位差法和深度神经网络的复杂波前探测技术,其特征在于,包括如下步骤:收集图像信息、波前相差模拟、训练神经网络计算模型、模型预测; 收集图像信息:收集同一成像目标的焦面以及离焦图像信息; 波前相差模拟:基于柯尔莫哥洛夫大气湍流模型模拟波前相差样本,用波前相差样本计算焦面和离焦面的点扩散函数(PSF),由上述PSF产生对应波前相差样本的焦面和离焦像,焦面和离焦像与对应的波前相差构成神经网络的训练样本对; 训练神经网络计算模型首先进行数据变换而后将数据变换的结果输入混合神经网络进行训练; 数据变换:焦面像和离焦像进行傅里叶变换得到它们的频域表示:If和Id;通过If和Id计算得到F1,F2和F3; 混合网络训练:以F1的实部Re[F1]和虚部Im[F1],以及F2、F3作为输入,以波前相差的泽尼克多项式拟合结果作为输出,训练混合神经网络; 模型预测:采集焦面和离焦图像,通过数据变换输入混合神经网络,获得波前相差的泽尼克多项式拟合结果作为预测结果。 2.根据权利要求1所述的基于相位差法和深度神经网络的复杂波前探测技术,其特征在于,所述波前相差模拟的焦面和离焦面的点扩散函数(PSF),通过相位差法成像光路进行计算。 3.根据权利要求2所述的基于相位差法和深度神经网络的复杂波前探测技术,其特征在于,所述波前相差模拟的样本训练数量不少于2万个样本。 4.根据权利要求1所述的基于相位差法和深度神经网络的复杂波前探测技术,其特征在于,所述训练神经网络计算模型时进行数据变换时,F1,F2和F3的计算方式为 5.根据权利要求4所述的基于相位差法和深度神经网络的复杂波前探测技术,其特征在于,所述数据变换的计算公式中‘*’表示取复共轭,计算公式中‘||’表示取模运算。 |
语种 | 中文 |
专利代理人 | 林浩书 |
代理机构 | 北京智行阳光知识产权代理事务所(普通合伙) |
文献类型 | 专利 |
条目标识符 | http://ir.ynao.ac.cn/handle/114a53/25704 |
专题 | 天文技术实验室 |
作者单位 | 中国科学院云南天文台, 云南省昆明市官渡区羊方旺396号 |
第一作者单位 | 中国科学院云南天文台 |
推荐引用方式 GB/T 7714 | 刘辉,金振宇,季凯帆. 基于相位差法和深度神经网络的复杂波前探测技术. ZL202211213030.1[P]. 2023-01-03. |
条目包含的文件 | ||||||
文件名称/大小 | 文献类型 | 版本类型 | 开放类型 | 使用许可 | ||
CN115561825A-基于相位差法和(265KB) | 专利 | 开放获取 | CC BY-NC-SA | 浏览 请求全文 |
个性服务 |
推荐该条目 |
保存到收藏夹 |
查看访问统计 |
导出为Endnote文件 |
谷歌学术 |
谷歌学术中相似的文章 |
[刘辉]的文章 |
[金振宇]的文章 |
[季凯帆]的文章 |
百度学术 |
百度学术中相似的文章 |
[刘辉]的文章 |
[金振宇]的文章 |
[季凯帆]的文章 |
必应学术 |
必应学术中相似的文章 |
[刘辉]的文章 |
[金振宇]的文章 |
[季凯帆]的文章 |
相关权益政策 |
暂无数据 |
收藏/分享 |
除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。
修改评论