1 ICCV 2023:实现实时六自由度物体跟踪-德赢Vwin官网 网
0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

ICCV 2023:实现实时六自由度物体跟踪

3D视觉工坊 来源:机器之心 2023-10-16 17:13 次阅读

本文介绍了一篇由国防科技大学刘煜教授团队和浙江大学 - 商汤联合实验室周晓巍教授团队联合撰写的论文《Deep Active Contours for Real-time 6-DoF Object Tracking》,该论文已被计算机视觉人工智能顶尖国际会议 ICCV 2023 录用。仅需要提供 CAD 框架模型,就可以在多种光照条件和局部遮挡情况下实现对立体物体的实时跟踪。传统的基于优化的方法根据手工特征将物体 CAD 模型的投影与查询图像对齐来求解位姿,容易陷入局部最优解;最近的基于学习的方法使用深度网络来预测位姿,但其要么预测精度有限,要么需要提供 CAD 纹理模型。

为此,研究员王龙和博士生颜深创新性地提出一种解决方案 DeepAC。DeepAC 结合了传统方法和深度学习方法的优势,提出了一个深度主动轮廓模型,以解决六自由度物体跟踪的问题。给定初始位姿,首先物体 CAD 模型会投影到图像平面上以获得初始轮廓,然后一个轻量级网络用于预测该轮廓应如何移动,以匹配图像中物体的真实边界,从而为物体位姿优化提供梯度。最后,提出了一种可微的优化算法,可以使用物体位姿真值端到端监督训练所提模型。在半合成和真实六自由度物体跟踪数据集上的实验结果表明,所提模型在定位精度方面大幅超过了当前最先进方法,并在移动端达到了实时性能。

f25edb38-6bf8-11ee-939d-92fbcf53809c.png

论文地址:https://openaccess.thecvf.com/content/ICCV2023/papers/Wang_Deep_Active_Contours_for_Real-time_6-DoF_Object_Tracking_ICCV_2023_paper.pdf

项目主页:https://zju3dv.github.io/deep_ac/

背景

目前主流的六自由度物体跟踪方法分为基于关键点、基于边缘和基于区域三类。基于关键点的方法通过在二维图像和三维物体模型之间匹配关键点特征,来求解物体位姿;基于边缘的方法利用边缘信息 (显式或隐式) 计算两幅连续图像之间的相对位姿;基于区域的方法利用物体区域与背景区域在颜色统计上的区别,来求解物体位姿。然而,上述基于优化的方法存在一个共同缺点:它们需要手工设计特征和细致调整超参数,使其不能稳健地应用于各类真实场景。

近年来,一些端到端学习方法被提出以增强六自由度物体定位的鲁棒性,包括:直接回归几何参数;采用渲染 - 比对来迭代地优化位姿。尽管基于学习的方法具有潜力,但是直接回归法精度有限、泛化能力差;而渲染 - 比对法计算量大、不适用于实时应用,且需要提供带纹理的 CAD 模型。如何结合了传统优化方法和基于学习方法的优势,能够仅在 CAD 网格模型引导下,准确、鲁棒、实时地求解物体位姿,是一个亟待解决的问题。

六自由度物体跟踪的相关工作

1 基于优化的六自由度物体跟踪方法

基于优化的方法常用于解决六自由度物体跟踪问题,具体可以分为三种不同的类别:基于关键点 (Keypoint)、基于边缘 (Edge) 和基于区域 (Region)。基于关键点的方法利用局部特征匹配或光流技术建立 2D-3D 对应关系。虽然这种方法表现出了出色的性能,但它需要提供物体的纹理模型。为了解决这个问题,研究人员提出了基于边缘的方法,通过隐式或显示地分析物体边缘位移,判断物体六自由度位姿变化。例如,RAPiD 通过在投影边缘的正交方向上搜索最大梯度,来估计连续帧之间的相对位姿。然而,基于边缘的方法处理不好背景有杂物和运动模糊的情况。

这几年,基于区域的方法在复杂环境的跟踪任务中取得了显著进展。该研究最早可以追溯到 PWP3D 的工作,其有效地结合了前背景分割的统计模型和物体投影的边界距离场来优化物体位姿。近年来,RBGT 引入了多视角预计算的稀疏对应线 (Correspondence lines),建立符合了高斯分布的概率模型,并使用牛顿法快速收敛到物体位姿。SRT3D 引入了平滑的阶跃函数,考虑到全局和局部不确定性,相较于现有方法有明显改进。然而,基于区域的物体连续位姿估计算法会受到人工定义的特征和超参数限制。

2 基于学习的六自由度物体跟踪方法

近年来,深度学习方法在六自由度物体姿态估计领域取得了显著进展。其中一种方法是直接预测旋转和平移参数。另一种方法则是通过检测或回归物体坐标生成 2D-3D 对应关系,进而使用 PnP 求解器估计六自由度位姿。然而,仅通过单个网络预测物体位姿,其输出往往不准确。

为了克服这个问题,一些研究采用迭代优化的技术以取得更精确的结果。这类方法的关键是迭代的 “渲染 - 比对” 思想。在每次迭代中,利用当前估计的物体位姿渲染三维纹理模型,然后将渲染图像与实际图像进行比较,并用神经网络更新位姿,从而使两者逐渐对齐。目前,基于学习的方法的主要不足是需要使用 GPU,这使得它们不适合在移动应用程序中部署,例如虚拟现实、增强现实应用。此外,这类方法需要提供物体的纹理模型,但在实际任务中,用户预先获取的往往是一个三维扫描或者人工设计的 CAD 网格模型。

方法

针对上述背景和相关工作,论文提出了提出了一种传统方法和学习方法结合的方案。给定一个视频序列f26a5594-6bf8-11ee-939d-92fbcf53809c.png和初始时刻的物体位姿,所提方法使用当前帧的单个 RGB 图像f26e681e-6bf8-11ee-939d-92fbcf53809c.jpg和前一帧该物体位姿f27a6614-6bf8-11ee-939d-92fbcf53809c.png来求解当前帧的物体位姿f28a5e20-6bf8-11ee-939d-92fbcf53809c.png

f2920418-6bf8-11ee-939d-92fbcf53809c.png

1 轮廓特征图提取

利用上一帧的物体位姿,在 RGB 图像上裁剪出一个包含目标物体的矩阵区域

f29bf144-6bf8-11ee-939d-92fbcf53809c.png

,并使用以 MobileNetV2 为基础的 FPN-Lite 网络,对图像

f29bf144-6bf8-11ee-939d-92fbcf53809c.png

提取多层特征。提取的多尺度特征图表示为

f2ae6f68-6bf8-11ee-939d-92fbcf53809c.png

,包含一系列由粗到细的特征信息。其中,

f2b95a04-6bf8-11ee-939d-92fbcf53809c.png

f2c40012-6bf8-11ee-939d-92fbcf53809c.png

f2ccec7c-6bf8-11ee-939d-92fbcf53809c.png

f2dbe808-6bf8-11ee-939d-92fbcf53809c.png

分别表示尺度为 s 的特征图宽度、高度和维度,

f2e04c5e-6bf8-11ee-939d-92fbcf53809c.png

为提取特征的层数。这种由粗到细的网络设计可以使得神经网络编码到更广的空间信息,从而提高在物体大幅度运动情况下的定位精度。下图可视化了一组 FPN-Lite 网络提取的多层次特征图,先用 PCA 对特征图

f2edbdc6-6bf8-11ee-939d-92fbcf53809c.png

进行降维,再表示成 RGB 图像。

f2f626be-6bf8-11ee-939d-92fbcf53809c.png

受到 RBGT 的启发,论文使用对应线模型 (Correspondence Line Model) 描述二维轮廓的局部区域。具体来说,对应线模型在二维轮廓上均匀采样若干个二维点,并建立相应的对应线f2ffbcec-6bf8-11ee-939d-92fbcf53809c.png。每条对应线由一个中心点

f3054004-6bf8-11ee-939d-92fbcf53809c.png

和一个单位法向量

f3147786-6bf8-11ee-939d-92fbcf53809c.png

组成,它们通过三维轮廓点f31c6f04-6bf8-11ee-939d-92fbcf53809c.png及其相关的三维法向量f328826c-6bf8-11ee-939d-92fbcf53809c.png投影到二维图像平面上得到。通过在特征图

f330b040-6bf8-11ee-939d-92fbcf53809c.png

上插值采样这些二维点集 (使用 PyTorch 的 grid_sample 函数),可生成轮廓特征图

f340217e-6bf8-11ee-939d-92fbcf53809c.png

f35201f0-6bf8-11ee-939d-92fbcf53809c.png是采样的二维轮廓点的数量。

2 边界图预测

论文设计了一个轻量化网络,用于预测边界概率图

f35622c6-6bf8-11ee-939d-92fbcf53809c.png

f3646c96-6bf8-11ee-939d-92fbcf53809c.png动态设定,以移除图像边缘外的区域。在边界概率图f376c27e-6bf8-11ee-939d-92fbcf53809c.png中,位于

f37c0eb4-6bf8-11ee-939d-92fbcf53809c.png

坐标处的值表示二维点f381a536-6bf8-11ee-939d-92fbcf53809c.png作为第

f3910094-6bf8-11ee-939d-92fbcf53809c.png

条对应线边界的概率。为了提高网络的泛化能力,论文将基于传统统计方法所得到的前景概率图f39cdf5e-6bf8-11ee-939d-92fbcf53809c.png和边界概率图f3a99096-6bf8-11ee-939d-92fbcf53809c.png与轮廓特征图f3b4db68-6bf8-11ee-939d-92fbcf53809c.png融合,作为轻量化网络的输入。

f3c3a4e0-6bf8-11ee-939d-92fbcf53809c.png

上图详细介绍了边界预测模块的前向传播过程。其使用了三种不同的输入,分别是前景概率图

f3d1aa40-6bf8-11ee-939d-92fbcf53809c.png

和边界概率图

f3d62066-6bf8-11ee-939d-92fbcf53809c.png

与轮廓特征图

f3e18488-6bf8-11ee-939d-92fbcf53809c.png

。通过在不同阶段使用拼接 (Concat) 操作,将这些信息融入到神经网络中,来预测边界概率图f3e8854e-6bf8-11ee-939d-92fbcf53809c.png。实验表明,将传统统计信息和深度特征进行融合并作为网络的输入,能够显著的提高定位算法的性能指标。

3 位姿优化

本小节基于轻量化网络学习得到的边界概率图

f3ee1afe-6bf8-11ee-939d-92fbcf53809c.png

,采用迭代优化方法恢复当前帧物体的位姿

f3f3777e-6bf8-11ee-939d-92fbcf53809c.png

。在位姿

f3f3777e-6bf8-11ee-939d-92fbcf53809c.png

每一轮迭代更新时,二维轮廓点

f40d004a-6bf8-11ee-939d-92fbcf53809c.png

和三维轮廓点f411e4de-6bf8-11ee-939d-92fbcf53809c.png之间重投影误差f415ae16-6bf8-11ee-939d-92fbcf53809c.png计算如下:

f425bef0-6bf8-11ee-939d-92fbcf53809c.png

其中,

f43586f0-6bf8-11ee-939d-92fbcf53809c.png

为投影轮廓法向向量,

f439c008-6bf8-11ee-939d-92fbcf53809c.png

f44c2018-6bf8-11ee-939d-92fbcf53809c.png

分别为物体在第 k 帧的旋转和平移,π 表示针孔相机模型的投影函数:

f4545558-6bf8-11ee-939d-92fbcf53809c.png

其中,f45be28c-6bf8-11ee-939d-92fbcf53809c.png分别为x,y图像空间方向焦距及光心。给定位姿f4624bea-6bf8-11ee-939d-92fbcf53809c.png后,重投影f46e4c9c-6bf8-11ee-939d-92fbcf53809c.png距离刻画了三维轮廓点f479f34e-6bf8-11ee-939d-92fbcf53809c.png的投影在第i条的对应线上的位置。该位置作为边界点的似然估计是:

f4851f12-6bf8-11ee-939d-92fbcf53809c.png

每条对应线上边界点似然估计相互独立,则所有对应线整体似然估计为:

f4903b4a-6bf8-11ee-939d-92fbcf53809c.png

本小节的目标为寻找使得似然估计最大化的位姿f4988d5e-6bf8-11ee-939d-92fbcf53809c.png

为了最大化该似然估计,本小节采用了迭代牛顿法和 Tikhonov 正则化来优化位姿求解。具体的位姿更新方式如下:

f4aae01c-6bf8-11ee-939d-92fbcf53809c.png

式中H为海森矩阵,g是梯度向量,f4b68a20-6bf8-11ee-939d-92fbcf53809c.png为 3×3 的单位矩阵。f4c81452-6bf8-11ee-939d-92fbcf53809c.pngf4d0b094-6bf8-11ee-939d-92fbcf53809c.png分别表示三维旋转和三维平移的正则化参数。由于三维旋转R属于一个李群,所以它可用一个李代数的指数映射表示:

f4d712ea-6bf8-11ee-939d-92fbcf53809c.png

式中,三维向量f4ddcb94-6bf8-11ee-939d-92fbcf53809c.png是李代数空间 so (3) 的元素,f4ebbbb4-6bf8-11ee-939d-92fbcf53809c.pngf4f06358-6bf8-11ee-939d-92fbcf53809c.png的斜对称矩阵。因此一个位姿f4fbe9b2-6bf8-11ee-939d-92fbcf53809c.png能够被一个六自由度的变量表示f50a2eb4-6bf8-11ee-939d-92fbcf53809c.pngf51b87ae-6bf8-11ee-939d-92fbcf53809c.png。根据链式求导法则,海森矩阵H和梯度向量g的计算如下:

f52d0588-6bf8-11ee-939d-92fbcf53809c.png

式中

f538a262-6bf8-11ee-939d-92fbcf53809c.png

为三维轮廓点f547d818-6bf8-11ee-939d-92fbcf53809c.png在相机坐标空间的位置。f550c8c4-6bf8-11ee-939d-92fbcf53809c.png为重投影误差相对于相机坐标空间点f5560258-6bf8-11ee-939d-92fbcf53809c.png的一阶偏导数,它的计算公式如下:

f55c51a8-6bf8-11ee-939d-92fbcf53809c.png

对于相机坐标空间下的三维点相对于六自由度位姿的一阶偏导数f56e2400-6bf8-11ee-939d-92fbcf53809c.png的计算,本小节采用经典的扰动模型推导得到如下公式:

f579fe9c-6bf8-11ee-939d-92fbcf53809c.png

为了端到端训练之前所提出的网络模型,本小节采用两种近似方法来估计

f584cc82-6bf8-11ee-939d-92fbcf53809c.png

关于f58c56a0-6bf8-11ee-939d-92fbcf53809c.png的一阶导数。第一种近似方法直接使用每条对应线的均值f594f1fc-6bf8-11ee-939d-92fbcf53809c.png和方差f5a9bfba-6bf8-11ee-939d-92fbcf53809c.png计算导数,具体计算方式如下:

f5add096-6bf8-11ee-939d-92fbcf53809c.png

第二种近似方法利用了三维轮廓投影点附近区域的边界概率,具体计算公式如下:

f5bd1ea2-6bf8-11ee-939d-92fbcf53809c.png

这两种近似方法具有不同的特性:第一种近似用于直接学习每条对应线上的边界位置f5c5f9fa-6bf8-11ee-939d-92fbcf53809c.png,从而实现快速收敛。第二种近似用于学习局部边界概率,从而细致优化位姿。此外,方差f5cb4b6c-6bf8-11ee-939d-92fbcf53809c.png用于刻画每条对应线的不确定性,在位姿求解过程中起到了增强鲁棒性的作用。为了分析边界不确定性对于物体姿态预测的影响,论文采用了一种基于颜色渐变的可视化方法,使用用较暖 (红色) 的颜色来表示边界不确 定性值 (即f5cb4b6c-6bf8-11ee-939d-92fbcf53809c.png) 较小的区域。从下图中可以看出,物体没有被遮挡的边界对于位姿预测更有帮助,而被遮挡的边界则相对无关紧要。

f5dfad8c-6bf8-11ee-939d-92fbcf53809c.png

4 网络监督

论文提出的方法以每次迭代优化后所得的位姿

f5ed05ae-6bf8-11ee-939d-92fbcf53809c.png

与真实位姿f5f4a11a-6bf8-11ee-939d-92fbcf53809c.png间的差异为依据:

f5fe87b6-6bf8-11ee-939d-92fbcf53809c.png

其中,P是 Huber 鲁棒核函数。为了避免困难样例对模型训练产生不利影响,论文采用了条件损失函数:只有在前一次迭代优化后所得的位姿在真实解附近时,才将其纳入损失函数的计算中;如果某次迭代优化后所得的位姿偏离真实解过大,则忽略其对应的损失项。这样可以保证模型只使用可信度高的训练样本。

结果

1 与基于优化的方法比较

(1)RBOT 数据集

在 RBOT 数据集上,论文采用 5cm−5◦召回率,来评估定位的精度。具体而言,每一帧图像是否被成功定位取决于其平移误差是否小于 5cm 且旋转误差是否小于5◦。

实验结果表明,在常规、动态光照和场景遮挡下,现有的基于优化的方法已经非常接近性能上限,SRT3D 和 LDT3D 的 5cm−5◦召回率已接近或超过 95%。在这三种情况下,DeepAC 表现出了相似的性能,在常规和动态光照情况下小幅领先,在场景遮挡情况下略微落后。但是,在噪声情况下,所提方法显著优于其他基于优化的方法,5cm−5◦召回率从 83.2% 提高到 88.0%,这一结果证明了 DeepAC 对图像噪声具有较强的鲁棒性。

f60fc8fa-6bf8-11ee-939d-92fbcf53809c.png

(2)BCOT 数据集

论文在 BCOT 数据集上对所提方法进行了实验验证,并采用 ADD-(s) d 和厘米 - 度召回率来评估位姿估计的精度。与在 RBOT 数据集上进行的实验不同,在 BCOT 数据集上,增加了一些更严格的评价指标,即 ADD-0.02d、ADD-0.05d、 ADD-0.1d 以及 2cm−2◦召回率,以评估算法的高精度定位能力。其中,d 表示物体模型 3D 包围盒的最大长度。

实验结果表明,DeepAC 在所有阈值下的 ADD-(s) d 和厘米 - 度召回率均优于其他基于优化的基线方法。特别是,在非常严格的 ADD-(s) d 标准下,所提方法表现出显著的优势,相比于排名第二的 LDT3D,在 ADD-0.02d、ADD-0.05d 和 ADD-0.1d 上分别提高了 9.1 个百分点、14.1 个百分点和 9.6 个百分点。这些结果充分表明了 DeepAC 具有高精度定位的能力。

f626ab92-6bf8-11ee-939d-92fbcf53809c.png

(3) OPT 数据集

在 OPT 数据集上,论文先计算不同误差阈值 s 下的 ADD-(s) d 得分,再通过计算曲线下面积 (AUC) 得分来衡量视频序列中物体位姿估计的质量。其中,误差阈值 s 的范围设定为 [0, 0.2]。

下表显示了 DeepAC 在六个物体上均优于当前最先进的基于优化的方法,在 AUC 分数上取得了明显提升。在平均 AUC 分数方面,DeepAC 达到 16.69,比排名第二的方法 SRT3D 高出 6.10%。这些结果表明 DeepAC 在真实场景下具有优异的跟踪能力。

f62beb20-6bf8-11ee-939d-92fbcf53809c.png

2 与基于学习的方法比较

为了验证 DeepAC 模型在不同数据集上具有很好的泛化能力,论文在 RBOT 数据集上与当前最先进的基于学习的方法进行了对比实验。论文选取了除 “Clown” 物体外 (因为其纹理图有误) 所有序列作为测试集,并使用平均 ADD-(s) d 和厘米 - 度召回率作为评估指标。为了与其他基于学习的方法公平比较,所提方法 DeepAC 使用相同的训练数据和方式,并记作 DeepAC−。

f63c5384-6bf8-11ee-939d-92fbcf53809c.png

实验结果显示,其他典型的基于学习的方法定位精度远低于 DeepAC,这充分说明了 DeepAC 在不同数据集上具有很强大且稳定的泛化能力。

3 消融分析

论文通过消融实验分析 DeepAC 中三个主要的设计对物体六自由度定位性能的影响,分别是:1) 统计信息融入;2) 多层特征提取;3) 边界不确定性估计。实验在 RBOT 和 BCOT 数据集上进行,并将结果展示在下表。

f64dac10-6bf8-11ee-939d-92fbcf53809c.png

应用前景

该研究成果在民用和军事领域都有广泛的应用。在民用领域,该研究可用于强现实、机器人操作和人机交互等众多应用。在军事领域,该研究可用于支持空中无人装备与巡飞弹在复杂光照条件下对目标的多角度实时跟踪与打击。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表德赢Vwin官网 网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人机交互
    +关注

    关注

    12

    文章

    1206

    浏览量

    55380
  • 机器人
    +关注

    关注

    211

    文章

    28379

    浏览量

    206906
  • 计算机视觉
    +关注

    关注

    8

    文章

    1698

    浏览量

    45968
  • 深度学习
    +关注

    关注

    73

    文章

    5500

    浏览量

    121109

原文标题:ICCV 2023 | 实现实时六自由度物体跟踪

文章出处:【微信号:3D视觉工坊,微信公众号:3D视觉工坊】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    DSP在自由度电磁跟踪系统中的应用

    自由度电磁跟踪系统根据电磁感应的原理来计算出目标的自由度参数,从而唯一确定目标的位置和姿态。怎样由接收到的模拟信号计算得到目标的位置和
    发表于 01-25 00:11 1313次阅读
    DSP在<b class='flag-5'>六</b><b class='flag-5'>自由度</b>电磁<b class='flag-5'>跟踪</b>系统中的应用

    基于FPGA EtherCAT的自由度机器人视觉伺服控制设计

    机器人视觉伺服中有着广阔的应用,本实验将集成摄像头的 伊瑟特主站应用在自主研发的自由度串联机器人上,将机器人运动学算法编写入 伊瑟特主站,使得机器人可以随着摄像头检测到的物体实时
    发表于 05-29 16:17

    基于STM32、以太网、Labview的自由度Stewart并联运动平台模型

    自由度Stewart并联运动平台模型-X,Y,Z平移、旋转测试自由度Stewart并联运动平台-Z向旋转正弦波复现
    发表于 04-16 23:25

    关于自由度座椅的控制

    最近在参与一个自由度座椅控制的课题,需要查阅哪些方面的相关书籍,有什么推荐吗?谢谢各位
    发表于 01-13 14:46

    【芯灵思A83T试用申请】嵌入式视觉--远距离物体跟踪与定位

    方法,边缘提取,以及由拟合圆的方法,达到能获取自由度物体的微小位移或者旋转角度,实现物体实时
    发表于 04-27 14:18

    基于Matlab的开源自由度协作机器人实验平台

    一前言针对机器人相关专业的教学需求,商飞信息科技开发出此开源自由度协作机器人实验平台。该平台有以下几大特色机器人本体采用自主设计的3Kg负载自由度协作机器人,机器人每个关节集成电机
    发表于 09-07 07:10

    基于磁阻传感器的虚拟现实跟踪系统

    介绍了虚拟现实跟踪系统的概念、用途以及磁阻传感器的特点阐述了利用磁阻传感器开发虚拟现实自由度自由
    发表于 06-27 09:19 16次下载

    自由度液压运动平台的迭代学习控制卢颖

    自由度液压运动平台的迭代学习控制_卢颖
    发表于 03-15 08:00 1次下载

    ADIS16485:战术级自由度惯性传感器数据表

    ADIS16485:战术级自由度惯性传感器数据表
    发表于 05-23 17:32 9次下载
    ADIS16485:战术级<b class='flag-5'>六</b><b class='flag-5'>自由度</b>惯性传感器数据表

    ADIS16365:自由度惯性传感器数据表

    ADIS16365:自由度惯性传感器数据表
    发表于 05-23 20:27 2次下载
    ADIS16365:<b class='flag-5'>六</b><b class='flag-5'>自由度</b>惯性传感器数据表

    ADIS16385:自由度惯性传感器报废数据表

    ADIS16385:自由度惯性传感器报废数据表
    发表于 05-24 09:14 1次下载
    ADIS16385:<b class='flag-5'>六</b><b class='flag-5'>自由度</b>惯性传感器报废数据表

    ADIS16495:战术级自由度惯性传感器数据表

    ADIS16495:战术级自由度惯性传感器数据表
    发表于 05-25 18:04 9次下载
    ADIS16495:战术级<b class='flag-5'>六</b><b class='flag-5'>自由度</b>惯性传感器数据表

    自由度激光跟踪仪的特点

    GTS6000激光跟踪仪与空间姿态探头配合组成自由度激光跟踪仪,能够根据合作目标的精确空间姿态对被测工件的内部特征、隐藏特征或曲面等复杂特征进行快速、高精度的测量。
    的头像 发表于 07-21 10:58 703次阅读
    <b class='flag-5'>六</b><b class='flag-5'>自由度</b>激光<b class='flag-5'>跟踪</b>仪的特点

    专家点赞!国家重点研发计划“自由度激光自动精准跟踪测量关键技术”项目通过验收

    2023年9月26日,中图仪器牵头的国家重点研发计划——“自由度激光自动精准跟踪测量关键技术”的项目综合绩效评价会议在深圳顺利召开。本项目瞄准我国航空航天、汽车船舶、轨道交通、机器人
    发表于 10-07 11:34 0次下载

    一文读懂自由度激光跟踪

    激光跟踪仪与空间姿态探头(iProbe 6D姿态探头)配合使用,就组成自由度激光跟踪仪。它能够根据合作目标的精确空间姿态对被测工件的内部特征、隐藏特征或曲面等复杂特征进行快速、高精度
    的头像 发表于 12-12 09:39 754次阅读
    一文读懂<b class='flag-5'>六</b><b class='flag-5'>自由度</b>激光<b class='flag-5'>跟踪</b>仪