无人机视觉导航搜索资料
https://www.aiimooc.com/mall/search.php?moduleid=16&spread=0&kw=slam
专栏深度学习在计算机视觉的应用
https://www.zhihu.com/column/c_1156964299418189824
秦通大佬在华为的工作:AVP-SLAM自主代客泊车视觉定位方案
https://www.bilibili.com/video/BV1Vv411v7B9/?spm_id_from=333.788.recommend_more_video.4
https://youtu.be/0Ow0U-G7klM VINS-Mono/Fusion作者秦通在华为的工作,用低成本的环视摄像头实现车辆在地库环境中的定位,从而进行自主导航泊车。 IROS 2020,AVP-SLAM: Semantic Visual Mapping and Localization for Autonomous Vehicles in the Parking Lot
鱼眼摄像头SLAM
https://www.cnblogs.com/wujianming-110117/p/12799847.html
https://zhuanlan.zhihu.com/p/137114715
OmniSLAM: Omnidirectional Localization and Dense Mapping for Wide-baseline Multi-camera Systems
https://arxiv.org/pdf/2003.08056.pdf
OmniSLAM:多鱼眼相机的SLAM系统
https://cloud.tencent.com/developer/article/1748923?from=article.detail.1749497
一个为自动驾驶设计基于环视摄像头的多任务视觉感知网络OmniDet
https://zhuanlan.zhihu.com/p/351965263
2021年2月15日上传arXiv论文:“OmniDet: Surround View Cameras based Multi-task Visual Perception Network for Autonomous Driving”,作者来自Valeo公司和德国一所大学。
为任意多相机系统重新设计SLAM
在SLAM系统中增加更多的摄像头可以提高鲁棒性和准确性,但会使视觉前端的设计变得非常复杂。因此,文献中的大多数系统是为特定的摄像机配置定制的。在这项工作中,我们的目标是一个适用于任意多摄像机设置的自适应SLAM系统。为此,我们回顾了视觉SLAM中的几个常见构建块。特别是,我们提出了一个自适应初始化方案,一个与传感器无关的,基于信息论的关键帧选择算法,和一个可扩展的基于体素的地图。这些技术对实际的相机设置做了很少的假设,并且更偏向于基于理论的方法而不是启发式方法。基于以上方法我们对最先进的视觉里程计进行改进,实验结果表明,修改后的框架可以适应各种各样的摄像机设置(例如,实验中有2到6个摄像机),而不需要传感器特定的修改或调整。
无人机|几何约束下多旋翼无人机的全状态在线轨迹规划
https://www.bilibili.com/video/BV1TA411K7UE?from=search&seid=415085974358130006&spm_id_from=333.337.0.0
主要 内容: 1. 多旋翼运动规划和计算最优控制浅谈; 2. 无人机导航的基本框架; 3. 几何约束多旋翼轨迹优化:一种通用方法; 4. 无人机导航的各种SOTA方法 小助理微信:CV_LAB 收起无人机快速飞行中智能鲁棒感知和轨迹规划策略
https://www.bilibili.com/video/BV1Sv411k74D/?spm_id_from=333.788.recommend_more_video.0
港科大最新工作:无人机快速飞行中智能鲁棒感知和轨迹规划策略。该工作来自港科大无人飞行器实验室沈劭劼老师组。视频演示了在混乱的未知环境下无人机的快速自主飞行实验,其中使用了能够鲁棒感知、重新规划的策略。 论文下载:https://arxiv.org/pdf/2007.03465 代码:https://github.com/HKUST-Aerial-Robotics/Fast-Planner