王笛作“遥感影像目标精准感知方法研究”专题报告
——聚焦“看准、读懂、适应”与 AerialClaw 无人机智能体,探索复杂场景下遥感影像智能感知新方法
2026年4月26日,在由中国计算机学会主办、OK138太阳集团承办的“CCF武汉走进ok138cn太阳集团”活动中,来自西安电子科技大学的王笛教授围绕“遥感影像目标精准感知方法研究”作专题报告。报告面向遥感影像智能解译等关键需求,系统介绍了相关研究进展,围绕“看准、读懂、适应”三个层次,阐述了遥感目标精准感知的方法体系和技术创新路径。

王笛教授指出,遥感影像目标精准感知是遥感智能解译的重要基础,随着人工智能等技术发展,正从“检测目标位置”走向“深度语义理解”,可通过跨模态指令提取精准目标信息,服务多领域应用。在军事侦察、智慧农业、灾情监测和城市监管中,遥感精准感知能提供细粒度数据支撑,相比传统方式具备覆盖广、响应快等优势。
报告重点分析了遥感影像目标精准感知面临的四大挑战:目标方向任意、尺度差异显著、成像噪声干扰、目标与环境语义混淆,这些问题导致传统方法易出现误检、漏检等情况,制约感知精度。
针对上述挑战,王笛教授提出递进式研究体系,从感知、理解、推理三层发力:感知层聚焦“看得准”,通过空频分析理论提升目标特征表达能力;理解层聚焦“读得懂”,引入语言引导机制实现跨模态语义对齐;推理层聚焦“能适应”,探索开放世界时空定位和零样本推演,增强模型适应性。
王笛教授还介绍了关键技术路径,包括提升目标特征判别性、增强模型鲁棒性、渐进式视觉定位等,并重点展示了AerialClaw无人机智能体。该智能体采用分层架构,具备“硬技能+软技能”能力体系,可实现环境感知、自主决策的闭环,突破传统无人机预编程局限。
报告展望未来,提出将发展精准目标检测方法,强化基础模型迁移,推动AerialClaw在多场景落地。王笛教授强调,遥感智能解译正向多模态、开放式、自主化演进,相关研究为遥感智能、无人系统自主决策等领域提供了新思路,也为多场景应用提供了重要参考。