CES2016之无人机 关键词:CES-国际消费类电子产品展览会(International Consumer Electronics Show,简称CES);无人机避障 CES可谓是当今电子类消费展的第一品牌,也是个大厂商秀肌肉的主要展台。 今天我们就来聊聊今年CES上关于无人机的黑科技: DJI 大疆在今年的CES上表现比较含蓄,个人觉得虽然没什么突破但也没什么槽点,或许是还没到真正秀肌肉的时候。 主要的两款新产品: Inspire哑光黑 Phantom3 4K 相对于早期产品而言,没有太多“黑科技”也许此次CES大疆的黑科技就在于“黑” 就实用性来讲,个人觉得这“黑“科技还是有点意思。
腾讯&0度-空影Ying 看到这里,楼主不免想到了快播的梗。难道腾讯真的要转型? 楼主第一眼看到这个飞机,怎么看怎么像穿越机,不过这一点也跟楼主预想的一样,毕竟这款飞机的主打功能并不是航拍,也非摄像,只是搭了互联网+的顺风车,为的也是将企鹅的软用户转变成硬用户。特别地,这里“基带狂魔”也开始染指觊觎已久的无人机市场,照这么下去,估计以后我们没每买一架无人机高通又得从中赚一笔了。所以这里楼主强烈建议@华为也考虑一下这块市场。 这款产品的亮点在于,使用骁龙系列芯片,在系统集成度上有了较大提升,但是和软件算法的配合程度,还需要经过市场的检验,所以这里楼主保留意见。 0度 0度这家老牌无人机厂商,也带来的它的新产品,Xplorer2以及XplorerMini 个人觉得300ms的图传延时有点让人接受不了。超声波定高光流,双模卫星导航(GPS+Glonass)也是比较早期的技术了(精灵3、P&A为标配) 这里比较有亮点的是:0度推出了独家壁障系统,“给你360°的安心”(怎么感觉有点不对呢,请大家自行脑补) 那么这里让楼主猜一下,这个号称360°无死角的避障雷达是个什么鬼。 官方给出参数为:6m有效壁障,每秒50次刷新,360°全方位壁障。 结合楼主多年的DIY经验,楼主觉得这玩意可能是一个激光雷达(楼主猜的),不过有点预警机的感觉,瞬间高大上。 而所谓激光雷达(2D):也不是什么新鲜玩意,特别地2D激光雷达以激光测距为原理,电机驱动配合精密滑环,在平面内以垂线为中心360度旋转,测量出平面内雷达与障碍物之间的距离。按照以上给出的参数, 6m有效壁障:实际就是该激光雷达的测量范围。 每秒50次刷新:楼主不是很明白,这个刷新率指的是扫描频率还是指雷达的测量频率? 如果是雷达的测量频率,那么这个性能让我不敢恭维。市面入门级激光雷达测量频率可达2000Hz。 这里就跟大家解释一下,2000Hz是什么概念。 按照某宝某款激光测距雷达的性能参数:
测量频率2000Hz,扫描频率2Hz(min),那么就是说在一圈360度,雷达扫描1000次。 这里以6米为极限距离:半径为6米的圆周上细分为1000分,每一段距离为12π/1000≈0.037米,即在6米的极限距离,雷达能识别到水平宽度大于4厘米的物体。这个值在扫面频率为10Hz(max)的时候约为19厘米。所以请你告诉我每秒50次刷新是个什么鬼? 此处槽点保留,此外楼主也确实没弄明白,0度这里的激光雷达是2D还是3D。 所以这里让楼主意淫一下:此前一直关注270团队的中东之行,其中270使用过一款名为:FaroLaser scanner Focus3D X330的高速三维扫描仪,同系的Focus3D X30有效范围30米,每秒测量点976000个,距离测量精度达到2mm。如果有人能将类似的3D激光扫描技术应用到无人机上,那无人机的壁障或许就真的靠谱了。
这里楼主加入一点,关于机器人(无人机)导航,以及路径规划的内容。 请看视频:
这是MIT一个关于地面避障的应用,其硬件主要用到2D激光雷达。 这里楼主要说明的一点是,此处小车是在比较平坦的地面运行,那么平面内的2D激光雷达,应该是可以满足一般的避障。但是无人机飞行环境要比这个复杂得多,因此应用于无人机避障的激光雷达至少是3D激光雷达。这里想想,0度所搭载的这一个避障模块,应该就是初级的3D激光雷达,如果真如0度讲的那样,自主研发,那么也是值得鼓励的。
Yuneec Yuneec早前拿了Intel的风投,这里在无人机避障技术上面秀一下以无可厚非。此处Yuneec所用到的主要技术来源于Intel的RealSense。说实话楼主一向不喜欢大牌厂商把某某技术说得神乎其神。楼主特地翻阅了Intel官网,进入看到一幅酷炫的3D图像,对RealSense的描述为:“RealSense技术,允许摄像头捕捉景物的纵深信息,赋予人机交互全新维度。“ 那么捕捉景物纵深信息,是个什么意思呢?楼主这里就用此前所学到的一些内容,为大家做一个简单的描述(大神请扔砖)。 我们知道,通常情况下摄像机采集的图片是不包含距离信息的,我们可以用一系列的像素点来描述这一幅图像,而这里我们用三个参数来表述一个像素点,即:R、G、B(三原色)。 但是我们人眼看到的却不是这样子。 举个例子,当我们面前放着一个水杯,我们能够大致的判断出水杯离我们的距离,这是一种经验,但是也能够用物理原理来解释,或者说可以通过计算机实现。于是后来出现了一种对于图像信息的另外一种描述方式R、G、B、D;D代表depth,即深度。 也许很多人不懂,RGBD摄像头的作用,那么我们就用一个简单的实验来说明,请各位看官按照我说的做。
我们用单眼视觉模拟普通摄像头,双眼视觉模拟RGBD摄像头。 我们将一颗螺丝(类似物体也行)放在离我们一臂远的桌面上,通常情况下(双眼睁开)我们能很轻松的用手拿起这颗螺丝;然后我们闭上一只眼睛再试试,你会发现你没那么容易估计抓取的位置了,然而估计物体位置对于机器人导航是非常重要的一种信息。 据楼主所知目前市面在售的同类产品有:Microsoft-Kinect、Intel-RealSense、DJI-Guidance、Stereolabs-ZED,其中无一例外地都被用于图像处理,无人机(机器人)避障的应用中。 所以呢,楼主觉得Yuneec(Intel)这里的黑科技并不是啥新鲜玩意。 不过这里Intel的确有他的优势存在,究竟为什么?其实是有历史根源的。 1、 Intel是做芯片的,图像应用对主控处理能力要求极高,硬件优化也必须做的很好,才能达到实际的应用效果。 2、 Intel的早期项目催生了一个叫“OpenCV-开源计算机视觉库”的东西,近几年由于计算机视觉的发展硬件广泛应用到各行各业。虽然OpenCV可以很方便的应用到其他硬件平台,但某些方面的优势的确是其他厂商无可比拟的。 其实说到这里,楼主早已跑偏,CES关于无人机的主题也已经跑偏,此次CES 并不只是无人机厂商秀肌肉的舞台,其实是幕后大Boss在布局未来市场。各位觉得呢?
这里我们还是回到Yuneec的无人机,既然搭载了东家Intel的RealSense,那么也肯定用到了Intel的处理器,但目前就我所了解到的知识,如今的图像处理科技还远没有达到人体的高度。而相对来讲,无人机应用视觉处理来实现避障,跟汽车无人机驾驶属于同一个等级,如果芯片性能,或者后期优化跟不上,那也是白搭,充其量也只是秀秀概念而已。而这里我也持怀疑态度;具体效果怎么样,请拿数据说话,拿体验说话。
最后呢,楼主也说说对无人机(机器人)导航的一些看法,请大神轻拍。 目前关于机器人导航的实现方式无非有两种,而这两种方式也都是以仿生为基础; 1、 以多传感器组件为基础,构建比较复杂的传感器网络,实现高精度的定位与导航,这种方式我们已经喜闻乐见了,结合消费者切身体验,哪一个无人机(机器人)不是挂了一堆的传感器;这种方案所具有的优点就是,控制算法简单,容易实现,没有太多复杂艰涩的理论问题;但是成品的价格不会太低,这里主要指0度的避障方案为例。
2、 以计算机视觉(仿生)为基础,结合高性能嵌入式处理器(DJI: Manifold + Guidance Yuneec: Intel + RealSense),以视觉传感器替代其他用于定位&导航的传感器组件,这种方式具有可靠性高,成本代价低的特点,然而其技术难度高于前者;以manifold+Guidance为例。
|