岗位职责:
1. ILT 算法的 GPU 加速实现与优化:
-将基于物理模型的 ILT / OPC 算法在 GPU 平台上实现;
-利用已开发的光刻成像、卷积、FFT、梯度计算等核心算子进行并行化与性能优化;
-分析 ILT 中的计算瓶颈,设计高效的 GPU 计算流程;
2. AI 辅助计算光刻算法的工程化落地:
-将 AI 模型(光刻代理模型、AI-ILT 等)与物理仿真流程进行集成;
-支持 AI 正向预测模型、反向优化模型在 GPU 上的高效推理与训练;
-协助构建物理模型与 AI 模型协同工作的算法框架;
3. GPU 并行计算与异构加速优化:
-利用 CUDA / GPU 并行技术加速大规模 FFT、卷积和矩阵计算;
-优化多卡 GPU / 多流并发 / 显存管理等问题;
-探索 CPU–GPU 协同计算与异构调度方案;
4. 算法性能评估与工程验证:
-对 GPU 加速前后的 ILT / AI 算法进行性能对比与分析;
-评估加速对仿真精度、收敛性和稳定性的影响;
-支持算法在真实光刻数据或仿真数据上的测试与验证;
5. 科研与工程协同支持:
-配合研究人员完成算法原型到工程实现的转化;
-参与相关软件系统的架构设计、代码维护与文档编写。
任职要求(性别、年龄、学历、技能、经验、素质等方面):
1. 工作积极主动,认真负责、沟通良好,具备扎实的训练基础和良好的团队合作精神;
2. 本科以上学历,光学 / 微电子 / 物理 / 电子工程 / 计算机 / 人工智能 / 数值计算 / 高性能计算等工程科学类相关专业背景;
3. 具有熟练的英语阅读和写作能力;
4. 熟悉计算光刻原理,掌握数值优化算法, 熟悉基本的数值计算或并行计算思想;
5. 精通C/C++/python, 有高性能计算和AI模型及GPU开发经验;
6. 具备光刻仿真或半导体工艺及应用经验者优先;