会议时间
2025年8月6~7日
会议地点
西安电子科技大学(南区)网安大楼B101报告厅
主办单位
网络安全研究国际学术论坛InForSec
承办单位
西安电子科技大学网络与信息安全学院
协办单位(排名不分先后)
清华大学网络和系统安全研究室
复旦大学系统软件与安全实验室
西安交通大学网络空间安全学院
山东大学网络空间安全学院
东南大学网络空间安全学院
浙江大学NESA LAB
奇安信集团
蚂蚁集团
腾讯安全应急响应中心(TSRC)
DATACON组委会
安全极客
InForSec夏令营青年学者学术交流暨“导师面对面”专题活动议程表
(议程或有变动以当天为准)

嘉宾介绍&内容摘要

李晖 西安电子科技大学网络与信息安全学院执行院长
嘉宾简介:
李晖,现任西安电子科技大学网络与信息安全学院执行院长,国家级教学名师。全国密码专业学位研究生教育指导委员会委员,ACM SIGSAC CHINA首任主席, 中国密码学会理事、大数据与人工智能安全专委会副主任,中国中文信息学会理事、大数据安全与隐私计算专委会副主任,中国人工智能学会人工智能与安全专委会副主任,天翼网信安全产业联盟副理事长、陕西省商用密码协会专家委员会主任,在主要的研究方向是密码信息安全、隐私计算。国家重点研发计划项目负责人, 国家自然科学基金重点项目负责人,移动互联网安全陕西省创新团队负责人。在Usenix security、NDSS、ICLR、NeurIPS、CVPR、IJCAI等会议发表多项隐私计算和密码安全研究成果,获省部级科技进步奖一等奖4项,Google H因子67。

主持人 刘保君 清华大学副教授
嘉宾简介:
刘保君,清华大学副教授、博士生导师。入选国家高层次青年人才支持计划,国家重点研发计划青年科学家项目负责人,国际互联网治理领域权威机构 ICANN 根服务器系统咨询委员会成员。研究成果获国际互联网协会“应用网络研究奖”、首届“互联网基础技术贡献奖”、两次获得国际网络安全领域四大顶会杰出论文奖。

陈艳姣 浙江大学百人计划研究员、博士生导师
报告主题:基于隐层差异可分性的鲁棒后门检测
内容摘要:
后门攻击是深度学习的一大安全威胁,然而现有后门检测方法易被自适应攻击所绕过。我们提出了一种基于隐层差异可分性的鲁棒后门检测方法。后门模型与良性模型的本质区别在于隐层激活分布差异。我们提出了一种模型隐层差异的量化指标—相对优势值,该指标的计算不依赖已知良性或后门样本,通过样本反演的方法计算后门样本与正常样本的隐层表征,在自适应后门攻击下也可鲁棒区分后门模型与正常模型。
嘉宾简介:
浙江大学百人计划研究员、博士生导师。本科和博士分别毕业于清华大学电子工程系和香港科技大学计算机科学与工程系,曾任加拿大多伦多大学博士后、武汉大学研究员。主要从事智能物联网安全、人工智能安全研究,在计算机网络和信息安全等领域国际权威期刊和会议上发表论文170余篇。获浙江省科学技术进步奖一等奖(排名4/13)、中国电子学会自然科学奖一等奖(排名5/5)、达摩院“青橙奖最具潜力奖”等,入选国际计算机网络学会N2Women“十大学术新星”,入选中国科协青年人才托举工程。担任ACM CCS、USENIX Security、NDSS、IEEE INFOCOM等国际会议程序委员会成员。担任IEEE TIFS等国际期刊编委。

邱寒 清华大学网络研究院副教授、博士生导师
报告主题:从现实世界的数据污染思考大语言模型安全
内容摘要:
大语言模型在其预训练阶段,往往依靠海量互联网语料进行非监督学习,这其中难免会混入真实互联网中存在的赌博、色情等非法内容或毫无意义的污染语料,一方面体现在模型的词表中,一方面会对模型的推理产生不良影响。本报告从GPT-4o词表中的中文污染token出发,探索不同大语言模型词表中文token污染的情况,并探索基于词表中token分布估算语料库中token词频的方法,最后分析不同污染token在推理中异常表现的原因。
嘉宾简介:
邱寒,清华大学网络研究院副教授、博士生导师。博士毕业于法国巴黎高等电信大学,研究方向为机器学习安全。主持国家重点研发计划课题、自然科学基金青年项目、CCF-蚂蚁金服科研基金等科研项目,在人工智能和安全领域顶会顶刊发表50余篇论文,获ACL 2024杰出论文奖、2022年IEEE智能计算专委会数据安全青年研究奖、2023年IEEE可扩展计算专委会早期职业成就奖、入选2023、2024年斯坦福大学全球Top2%科学家榜单,担任ACL、NeurIPS、ICLR等顶会的领域主席。

张肖瑜 西安电子科技大学副教授、硕士生导师
报告主题:深度学习模型安全与隐私攻防
内容摘要:
机器学习作为实现人工智能的途径,重点研究如何从海量数据中获取隐藏的有效的、可理解的知识,建立数据驱动型的推理与决策模型。然而,人工智能模型的鲁棒性和数据的隐私性在模型训练、部署和使用过程中不可避免地带来了一些安全性挑战。该报告将分别针对机器学习算法中的隐私性和鲁棒性两大方面进行总结和汇报。在隐私保护方面,攻击策略主要包括性质推理攻击、成员关系推理攻击、模型提取攻击、模型反演攻击;防御策略主要包括差分隐私技术、对抗机器学习方法、密码学技术和基于水印的技术。在鲁棒性方面,探讨了对抗样本攻击、投毒攻击、后门攻击及其防御技术。
嘉宾简介:
张肖瑜,西安电子科技大学副教授/硕士生导师,于 2019年12月获得西安电子科技大学信息安全博士学位,于 2020 年 2 月加入西安电子科技大学网络与信息安全学院。研究方向包括对抗机器学习与数据安全。在国际知名期刊/会议发表学术论文40余篇,包括 IEEE TDSC、IEEE TMM、IEEE TII、ACM MM 、IEEE CVPR、IEEE ICCV、ICML 、NeurIPS等。主持国家自然科学基金面上项目、国家自然科学基金青年基金项目、密码科学技术国家重点实验室开放课题、广东省安全智能新技术省级重点实验室开放课题、科技部外国专家项目,参与国家自然科学基金重点国际合作项目等。曾获 2020 年中国中文信息学会优秀博士学位论文提名奖(拓尔思优秀博士论文奖)、2018年中央网信办中国互联网发展基金会网络安全奖学金。

潘旭东 复旦大学计算与智能创新学院副研究员
报告主题:前沿AI系统安全风险评测与治理
内容摘要:
随着生成式大模型和智能体技术迅速发展,如何针对以大模型为核心的前沿AI系统开展安全风险评测与治理是全球面临的共性难题。一方面,以图、文、音视频生成为主要功能的多模态大模型持续演进,内容安全风险尤为严峻,急需自动化程度高、覆盖面广和靶向性强等动态安全评测技术;另一方面,大模型通过工具、知识库、推理编排框架等基础软件,能够与真实世界自主交互,一旦具备自主复制、欺骗操控等危险红线能力,或对全人类带来灾难性风险。本报告将围绕大模型内容安全和智能体行为安全两大核心议题,分享团队近年来在前沿AI系统安全评测与治理方面的研究进展和思考。
嘉宾简介:
潘旭东,复旦大学计算与智能创新学院副研究员,上海创智学院全时导师,研究方向为人工智能安全与治理,在包括TPAMI、ICML、NeurIPS、USENIX Security和IEEE S&P在内的AI和网络安全领域国际顶会顶刊发表论文数十篇(中国计算机学会A类22篇),率先揭示多种大模型重大安全风险,得到OpenAI、Google、Anthropic、百度等国内外AI龙头企业高度关注,领导研发复旦白泽大模型靶向安全测评与防护体系,相关技术产业化应用于百度、阿里和华为等多家头部大模型厂商,主持多模态大模型安全国家重点研发项目课题。入选世界人工智能大会WAIC云帆奖、ACM中国计算机安全分会优博奖、华为“天才少年”(最高档)等荣誉。

主持人 朱辉 西安电子科技大学教授,教育部青年长江学者
嘉宾简介:
朱辉教授,入选教育部青年长江学者、陕西省中青年科技创新领军人才等计划;国家自然科学基金重点类项目负责人、国家重点研发计划“网络空间安全”/“网络空间安全治理”等重点专项课题负责人;长期从事数据安全、网络安全等方面研究。近5年,发表CCF A类或中科院一区学术论文60余篇,授权国家发明专利40余项,参与制定标准10项。相关成果获省部级科技一等奖3项。

杜天宇 浙江大学软件学院特聘研究员
报告主题:可解释大模型安全与评测平台
内容摘要:
近年来,以大模型为代表的人工智能技术迅猛发展,相关应用不断深化。在大模型蓬勃发展的同时,其安全、隐私、伦理等挑战也越来越引起人们的重视。保障大模型系统的安全隐私,发展可信赖、负责任的人工智能技术,成为其应用深化与产业发展的基础前提与必需保障。本报告将围绕大模型系统安全,探讨可解释的大模型安全增强技术,并展示研制的大模型安全评测平台。
嘉宾简介:
杜天宇,浙江大学软件学院特聘研究员、硕士生导师,2022年获浙江大学网络空间安全博士学位,2022-2023年赴美国宾夕法尼亚州立大学从事博士后工作。长期从事人工智能安全方面的研究,主持/承担国家青年科学基金项目(C类)、国家重点研发计划子课题等,在 USENIX Security、CCS、NDSS、NeurIPS、ICLR等国际顶级会议和期刊上发表论文20余篇,获Inscrypt 2019最佳论文奖,累计Google Scholar引用量1700余次。

李政 山东大学网络空间安全学院教授、博士生导师
报告主题:JailFuzzer: 基于模糊测试和LLM Agent的文生图大模型越狱攻击框架
内容摘要:
文生图(T2I)生成模型在内容创作领域取得了显著进展,但同时也面临着越狱攻击的风险,攻击者通过精心设计的提示绕过模型的安全机制,生成不安全内容。现有的越狱攻击方法存在诸多限制,如对模型内部机制的依赖、生成提示的不自然性、搜索空间受限以及对目标系统的高查询需求等。为了解决这些问题,本研究提出了基于模糊测试(Fuzzing)技术和大型语言模型智能体(LLM Agent) 的自动化越狱攻击框架JailFuzzer 。实验结果表明,JailFuzzer在越狱T2I模型方面具有显著优势。它不仅能够生成自然且语义连贯的提示,降低被传统防御机制检测到的可能性,而且在越狱攻击的成功率上也远超现有方法,同时显著减少了对目标系统的查询开销。此外,JailFuzzer在不同安全过滤器和防御机制下的表现也得到了验证,展示了其强大的适应性和有效性。
嘉宾简介:
李政,山东大学网络空间安全学院教授、博士生导师,国家级青年人才。研究方向为人工智能安全,涵盖数据隐私保护、模型鲁棒性风险识别及生成内容安全风险分析等领域。过去五年在国际权威会议与期刊发表学术论文30余篇,其中CCF A类论文15篇、四大安全顶会论文12篇。其ACM CCS 2021成果被IBM整合入人工智能鲁棒性评估系统;USENIX Security 2023论文广受关注,受邀接受奥地利国家广播电台(ORF)采访报道;获评欧洲CSAW最佳论文提名奖(2024)与欧洲信息与数学联盟(ERCIM STM)最佳博士论文奖(2024)。现担任USENIX Security、EuroS&P、ACSAC、PETS等国际权威安全会议的程序委员会委员,并担任NeurIPS、ICLR、ICML、KDD、TIFS、TDSC等顶级会议和期刊的审稿人。

黄智聪 蚂蚁技术研究院研究员
报告主题:生成式大模型时代的可追溯数字水印:“生成即嵌入”框架与实证研究
内容摘要:
本报告首先回顾数字水印技术的演进,随后聚焦生成式大模型时代的新挑战:传统方案一般需要直接编辑修改内容语义。以 Text-to-Image 扩散模型为例,介绍基于噪声注入的可追溯水印,以及“生成即嵌入”的框架。实验显示,在不损失图像质量的前提下,水印经过所有经典扰动、压缩、恶意攻击仍保持 90% 以上的检测率,可为 AI 生成内容的来源标识与责任追溯提供有效途径。
嘉宾简介:
黄智聪,蚂蚁技术研究院研究员。本科毕业于北京大学,2018年从瑞士洛桑联邦理工学院(EPFL)获得博士学位后,在阿里巴巴安全部双子座实验室工作5年,后加入蚂蚁技术研究院,在国际顶级安全会议和期刊 IEEE S&P、CCS、Usenix Security、NDSS等发表过多项研究成果。研究方向包括应用密码学,安全计算,同态加密,机器学习安全与隐私。

郭尚伟 重庆大学副教授
报告主题:多模态大模型安全测试
内容摘要:
近年来,多模态大模型(如图文生成大模型Stable Diffusion、图文理解大模型GPT4o等)的突破性发展深刻重塑了人机协作范式,推动智能客服、跨模态内容生成等产业实现效率跃迁。然而,诸如对抗、越狱、合规等安全威胁随之而来,严重威胁了多模态大模型的进一步应用与普及。本次报告聚焦多模态大模型安全风险,介绍团队在多模态大模型对抗攻击与自动化红队测试方面的最新工作,提升多模态大模型系统的安全性与可靠性。
嘉宾简介:
郭尚伟,重庆大学副教授,先后在香港浸会大学和新加坡南洋理工大学从事研究工作。主要从事人工智能系统安全与隐私保护相关研究。在TPAMI、TIFS和ICML、CVPR、ICLR、AsiaCCS、Euro S&P等国际高水平期刊和会议发表论文60余篇;担任MUST2023 Program Co-Chiar和多个期刊客座编辑。主持包括国家重点研发项目子课题、国家自然科学基金重点项目课题、面上、青年项目等多个国家级和省部级纵向项目。

主持人 张源 复旦大学教授
嘉宾简介:
张源,复旦大学教授,复旦白泽战队指导教师,主要研究软件安全、程序分析、安全攻防技术。研究工作获得ACM CCS 2020杰出论文奖提名、USENIX Security 2022杰出论文奖、ACM SIGSOFT 2024杰出论文奖。部分研究成果应用于华为、阿里、中国电信、OPPO、vivo等公司,获华为优秀技术成果奖、OPPO产学研优秀合作伙伴奖、vivo最佳安全技术合作伙伴奖。带领复旦白泽战队获得国内外顶尖安全攻防赛事20余次冠军,发现的多个软硬件高危漏洞得到华为、腾讯、蚂蚁金服、百度、谷歌等公司致谢,获2021年国家信息安全漏洞库最具价值漏洞奖。

吴昊 南京大学计算机学院特聘研究员、博导
报告主题:大模型的”视界迷宫”:漏洞检测中的注意力机制博弈
内容摘要:
随着大语言模型(Large Language Models, LLMs)在软件代码分析与漏洞检测领域的广泛应用,基于其强大的语义理解与推理能力的自动化安全检测技术逐渐成为学术界与工业界的研究热点。然而,尽管LLMs表现出显著潜力,其在实际漏洞检测任务中仍面临诸多挑战,尤以注意力机制易受操纵,导致检测结果偏差或误判为甚。报告将聚焦大模型在漏洞检测过程中暴露出的四类典型注意力机制问题,分别为:(1)因上下文信息缺失引发的漏洞识别误判与漏报;(2)推理过程中因模型复制恶意代码片段而产生的推理错误;(3)通过诱导机制转移模型注意力、掩盖真实漏洞的攻击策略;(4)细粒度关注机制缺失导致的漏洞定位精度不足。通过系统化分析与实证研究,揭示当前基于LLM的代码安全检测的局限性及潜在风险,进而提出增强上下文感知、提升注意力分布稳定性及细粒度漏洞定位能力的技术路径。研究成果旨在为构建高效、可信的大语言模型驱动自动化代码审计工具提供理论支持与实践指导。
嘉宾简介:
吴昊,南京大学计算机学院特聘研究员、博导,主要研究方向为安全可信的智能计算。分别于2016年和2021年在南京大学获得学士和博士学位,获得中国中文信息学会(国家一级学会)优博、江苏省计算机学会优博、ACM SIGBED中国优博等奖励,入选微软亚洲研究院“铸星计划学者”;在IEEE S&P、MobiCom、TIFS、TMC等国内外顶级学术会议和期刊上发表论文20余篇;主持或核心参与国自然青年基金、重点基金、重点研发子课题等项目10余项;主导和参与制定3项国家标准和2项团体标准;部分成果在华为、美团、国家电网等知名企业落地转化。

杨子祺 浙江大学计算机科学与技术学院、网络空间安全学院百人计划研究员
报告主题:面向大模型的数据隐私推断攻击与防御技术研究
内容摘要:
以大模型为代表的生成式人工智能在近年来成为人工智能领域的核心技术,推动了新一轮的技术革命,并为未来的人工智能产业发展指明了方向。目前,大模型技术已在多个领域广泛应用于自动内容生成。然而,随着大模型的广泛应用,数据隐私安全问题日益凸显。本报告重点探讨大模型数据隐私安全,揭示了视觉大模型训练数据可能面临的属性存在推断攻击风险,并探讨针对数据隐私推断的防御技术。
嘉宾简介:
杨子祺,浙江大学计算机科学与技术学院、网络空间安全学院百人计划研究员,博士生导师。在人工智能对抗攻防、训练数据隐私保护等研究方向上做出一系列创新研究工作。长期从事大模型安全评测、大模型数据隐私保护、生成内容水印标识溯源等领域的研究工作,具有丰富的理论基础与实践经验,作为区块链与数据安全全国重点实验室成员参与研制了人工智能安全评测平台AIcert与多模态合成内容安全标识平台GCmark。研究成果以第一作者或通讯作者在网络空间安全四大顶级会议与人工智能国际顶级会议IEEE S&P、USENIX Security、ACM CCS、DAC、AAAI、MM等和国际顶级期刊TDSC、TIFS等发表论文20余篇。长期担任网络与信息安全领域四大顶级会议IEEE S&P 的程序委员会委员,网络与信息安全领域顶级期刊IEEE TDSC、ACM TOPS 评审,以及人工智能顶级会议AAAI和深度学习安全国际会议AISec、DLS、SatML程序委员会委员。

赵彬彬 浙江大学计算机科学与技术学院百人计划研究员
报告主题:基于事件的固件后模糊测试故障定位分析
内容摘要:
模糊测试是目前发现嵌入式固件漏洞最有效的技术之一。然而,发现崩溃仅仅是安全保障的第一步,如何从海量的崩溃用例中,快速、精准地定位到导致问题的根因代码,即“故障定位”,长期以来是一个耗时、繁琐且依赖专家经验的环节,其自动化水平和效率往往成为固件安全修复的瓶颈。与通用软件不同,嵌入式固件的根因分析面临着独特的挑战,例如缺乏调试机制导致海量运行时信息难以筛选等。本次报告将介绍我们提出的自动化故障定位框架FirmRCA,通过在崩溃复现过程中高效捕获关键的内存访问和指令执行序列,从而精确重构数据流,并结合一套启发式排序算法,从数以万计的指令中高亮标记出与故障最为相关的根因指令。FirmRCA提升嵌入式固件崩溃的分析效率和准确性,为构建更健壮的物联网设备安全生态提供了新的解决思路。
嘉宾简介:
赵彬彬,浙江大学计算机科学与技术学院百人计划研究员、博士生导师,获美国佐治亚理工学院电子与计算机工程博士和硕士学位、浙江大学计算机科学与技术学士学位,入选优秀青年科学基金项目(海外),曾获国家优秀自费留学生奖学金。研究方向包括软件与系统安全、具身智能安全、人工智能安全等,近五年来,已累计在CCF A类期刊/会议上发表论文12篇,其中计算机安全领域四大顶会论文8篇。近年来担任TIFS、CCS、USENIX Security、NDSS等CCF A类期刊/会议的评审人或程序委员会委员。

刘逸 暨南大学网络空间安全学院讲师
报告主题:安全与效率并重:安全两方计算协议的设计与优化
内容摘要:
通用安全两方计算是一项密码学技术,旨在使两个参与方能够在不泄露各自私有输入的前提下,联合完成任意函数的计算。当前的协议根据安全性主要可以分为两大类:被动安全(半诚实)协议假设参与方严格遵循协议执行,仅可能通过协议交互信息尝试推断对方输入,此类协议虽然计算效率较高,但一旦参与方出现偏离协议行为,将完全失去安全保障;主动安全(恶意安全)协议则能够抵御参与方在执行过程中的任意偏离行为,确保输入隐私和计算正确性,但需要承担显著的计算和通信开销。
报告人近期的研究尝试在这两类方案之间寻找折中,通过设计新的协议结构,在尽量接近主动安全所能提供的强安全性保障的同时,显著提升执行效率。本报告将介绍相关研究成果,相关论文发表在ASIACRYPT与IEEE S&P。
嘉宾简介:
刘逸,暨南大学网络空间安全学院讲师,2023年获香港大学博士学位。研究领域为密码学与信息安全,专注于安全多方计算等密码协议设计方向。研究成果发表在IEEE S&P、ASIACRYPT、PKC、ESORICS、TIFS等密码学与信息安全知名国际会议与期刊上。

杜林康 西安交通大学助理教授、硕士生导师
报告主题:面向机器学习模型的训练数据侵权检测与确权方法研究
内容摘要:
在机器学习技术快速发展的背景下,海量数据作为模型训练的基础资源,为机器学习模型赋予了强大的推理能力和广阔的应用前景。例如,在自然语言处理、图像生成和多模态交互等领域,通过对海量数据的学习,机器学习模型能够实现高质量的内容生成和复杂任务的自动化处理,为智能客服、创意设计以及知识管理等方面提供了的技术支撑。然而,依赖于海量数据的训练模式,使得机器学习模型面临日益突出的版权保护问题。未经授权使用受版权保护的数据进行模型训练,可能侵犯原作者的合法权益,进而引发经济损失和法律纠纷。在本次报告中,我将介绍训练数据侵权检测和确权的研究背景、问题定义以及现有方法,并分享我们在扩散模型和离线强化学习模型的研究成果。
嘉宾简介:
杜林康,西安交通大学助理教授,硕士生导师,入选西安交通大学“优秀青年人才计划”A类,博士后创新人才支持计划。在2018年、2023年获浙江大学学士、博士学位,并在攻读博士学位期间受国家留学基金委的资助前往德国亥姆霍兹信息安全中心(CISPA)Michael Backes主任课题组学术访问一年。主持国家自然科学基金青年科学基金项目、中国博士后科学基金面上资助项目,参与国家自然科学基金重点项目、国家自然科学基金国际合作与交流研究项目、国家自然科学基金面上项目等多个国家级科研项目。目前已发表多篇网络与信息安全顶级会议论文,国家发明专利授权4项,受理6项,并担任IEEE TIFS、IEEE TDSC等多个国际期刊/会议审稿人。主要研究方向为数据隐私保护、数据溯源与确权(面向多模态大模型应用场景)、机器学习安全与隐私。

齐培贵 中国科学技术大学网络空间安全学院在读博士
报告主题:大模型内容安全:从文本到多模态的检测与防御体系
内容摘要:
随着大语言模型、文生图和文生视频大模型的快速发展,这些技术在创造价值的同时也带来了内容安全挑战。本报告聚焦人工智能大模型安全领域的前沿研究,系统性地介绍了从文本到多模态的不安全内容检测与防御体系。在语言模型方面,我们聚焦于有害文本生成问题,提出了创新的评估和缓解框架,致力于构建更加安全可靠的语言模型生态;对于图像生成,我们深入研究了对抗攻击下的安全防护机制,设计了兼顾生成质量与防御能力的解决方案;在视频生成领域,我们探索了基于内容理解的安全控制方法,实现了对生成过程的智能调控与风险管理。这些研究在不同模态中展现了技术创新与实用价值的结合,形成了一个从理论到实践、从文本到多模态的大模型安全防护体系。我们的工作不仅揭示了大模型安全的内在机制,也为AI技术的负责任发展和安全部署提供了切实可行的解决方案,对促进人工智能的健康发展具有重要意义。
嘉宾简介:
齐培贵,中国科学技术大学网络空间安全学院在读博士。研究方向包括AIGC的内容检测与安全防护,多模态大模型安全等。研究成果发表于ACM CCS 2024、ACM CCS 2025等国际会议。曾获得第31届ACM CCS Distinguished Artifact Award。
本次活动组织委员会
联合主席
李 晖 西安电子科技大学
杨 珉 复旦大学
段海新 清华大学
论坛执行委员
刘保君 清华大学
张 源 复旦大学
贾相堃 中国科学院软件所
王 喆 中国科学院计算所
本次活动指导委员会(拼音顺序)
程 光 东南大学
郭山清 山东大学
纪守领 浙江大学
苏 洲 西安交通大学
万 涛 加拿大卡尔顿大学
王 伟 西安交通大学
韦 韬 蚂蚁集团
张 超 清华大学
张卫明 中国科学技术大学