上海羊羽卓进出口贸易有限公司

基于传感器论文 论文分享 基于视触觉传感器的机器人推动物体学习

发布时间:2024-10-06 12:10:59

论文分享 基于视触觉传感器的机器人推动物体学习

人类在处理物体时会利用抓握(例如抓握)和非抓握操作(例如推、拉、滚动和旋转)。在机器人中,诸如推动之类的非抓握操作是移动大、重或笨重物体、同时移动多个物体或对小物体或组件进行微调的有用方法。推动也是一种减少物体位置或姿势不确定性的有用方法,尤其是在杂乱的环境中。对于某些应用,以受控方式推动物体的能力有助于减少机器人的尺寸、复杂性、功率和成本,因为不需要复杂且昂贵的手或抓手。

然而,机器人推动提出了几个关键挑战。首先,推动物理分析很复杂,因为支撑力的分布大多是未知的,并且在推动操作过程中会发生变化。由于摩擦力在空间、时间和方向上的高度可变性,分析变得更加困难。其次,控制问题很难解决,因为它是非线性的,并且受到非完整约束(只有特定方向可以将物体从特定配置推入)。最后,很难从原始感官数据中提取关于物体状态和运动的准确信息。计算机视觉系统擅长提供全局状态信息,但可能存在精度低、校准错误和遮挡的问题。力/扭矩传感器和触觉传感器不会受到遮挡问题的影响,但仅提供有关物体状态的局部信息。

这项研究关注如何使用机器人手臂将物体从任意起始位置穿过支撑表面推到最终目标位置的问题。与大多数现有的分析和数据驱动方法相比,我们的方法不依赖于明确的推送交互模型,该模型预测对象姿势将如何响应特定推送动作而发生变化。相反,它使用反应性和自适应程序来探索物体周围以找到稳定的推动路径。具体来说,我们使用目标驱动的触觉探索来主动搜索稳定的推动配置,使对象保持相对于推动者的姿势,同时逐步将推动者和物体移向目标。为了促进这一点,我们使用来自光学触觉传感器的反馈来预测物体相对于推动器的姿态,并使用来自机器人的本体感受反馈来确定基架中推动器(末端执行器)的姿态。在平面上,我们的方法对接触位置和角度、起始位置(相对于目标位置)以及不同物体形状和大小的变化具有鲁棒性。我们方法的一般性质也使我们能够将物体推过曲面,据我们所知,这是第一次这样做。

1、方法

A. 假设

我们在这项工作中做出两个主要假设。首先,我们假设准静态相互作用,其中摩擦力主导惯性力。除了简化问题的动态性之外,这还避免了必须处理推送器在推送序列期间与对象失去接触的情况。其次,我们假设我们知道或可以测量垂直平面(或垂直于支撑表面的平面)中的传感器接触角,以使其保持平行于表面移动并避免与表面碰撞或与表面失去接触。目的。当将物体推过平面时不需要第二个假设,因为我们可以通过将相应的增益项设置为零来将推动器的运动限制在平行于表面的固定平面上。

B. 机器人系统和触觉传感器

我们的实验系统包括一个 UniversalRobotics UR5 6-DoF 机械臂,配备了一个 TacTip 光学触觉传感器,我们用它来推动物体穿过一个表面。TacTip 传感器由布里斯托尔机器人实验室 (BRL) 的研究人员于 2009 年开发。我们的传感器尖端有一个充满凝胶的半球形橡胶表皮(半径20 毫米),带有 127 个内部标记,排列成六边形网格图案。虽然我们尚未调查尖端的半球形几何形状在此特定应用中的作用程度,但我们怀疑带有平垫的传感器不太适合,因为它们对物体方向的敏感性更有限。当皮肤变形时,内部摄像头(640 × 480 彩色像素,30 fps)跟踪针脚运动。根据正在执行的操作,传感器可以安装在两种不同的配置中。

C. 触觉伺服和目标对准

我们使用包含两个不同控制子系统的多反馈回路控制器来控制机械臂的推动运动:触觉伺服和目标对齐(见图 2)。这两个子系统协同工作以引导推动者和物体朝向目标。触觉伺服控制器的目标是在推动运动期间将传感器/推动器保持在相对于物体的固定方向和距离。第一个控制器取决于来自触觉感知子系统的反馈,该子系统包括光学触觉传感器和CNN。CNN 使用来自触觉传感器的图像来预测传感器/推动器相对于物体的姿势。第二个目标对齐控制器的目标是通过在推动移动期间围绕对象的周边移动传感器/推动器,将传感器/推动器的中心轴通过 CoF 定向到目标。第二个控制器依靠来自机器人的本体感受反馈来确定目标相对于传感器/推动器的方位和距离。

在描述控制器的操作时,我们将使用以下符号。我们使用大写字母来表示 3-D 坐标系。具体来说,我们使用字母B作为机械臂的基架,S作为传感器/推杆的框架,F作为特征/接触的框架,T作为目标框架(其轴平行于对应的基架轴) .在训练期间,特征/接触框架 F 是固定的(相对于 B)而 S 是移动的。在推送序列期间,F 由姿势预测CNN 的输出确定(相对于 S)。帧S'、S''和S'''分别表示参考传感器帧、触觉伺服校正帧和目标对准校正帧(见图3)。这些帧的位姿由参考传感器位姿和两个 PID 控制器产生的输出/校正信号确定。

D. 触觉姿势估计

使用CNN 来预测光学触觉传感器相对于(局部)物体表面的相对距离和方向,基于从传感器接收到的输入图像.虽然我们在工作中使用了 TacTip 传感器,但原则上,任何提供足够信息来预测状态变量的光学触觉传感器都可以在这里使用,例如 GelSight 。或者,如果使用非光学触觉传感器,则可以将CNN 替换为神经网络或其他能够学习传感器输出和姿势状态变量之间映射的非线性回归模型。使用我们基于CNN 的方法,首先将 640 × 480 ×3 触觉传感器图像转换为灰度,然后裁剪、阈值化并调整大小为 128 × 128 ×1,然后再归一化为 [0, 1] 范围内的浮点数.我们使用阈值来降低模型对环境照明和接触面图案变化的敏感性。然后将预处理后的图像作为输入应用于预测接触角和深度的CNN。

两个数据集用于训练和验证模型,第三个数据集用于部署前的最终测试。每个数据集包含 2000 张标记的传感器图像,我们通过在z ∈ [1, 5] mm 和 α, β ∈ [- 20, 20] 度。在数据收集期间,我们不是从上方将传感器移动到位,而是通过从随机采样的偏移量在表面上滑动/滚动将其移动到位。我们发现这提高了泛化性能并避免了复杂数据增强来模拟运动相关剪切效应的需要。我们使用 Adam 优化器(学习率 = 10^−4;衰减 = 10^−6)从随机权重初始化训练模型 100 个 epoch,或者直到均方误差验证损失显示连续10 个 epoch 没有改进。训练后,模型对 z、α 和 β 进行测试预测,平均绝对误差分别为 0.1 mm、0.39 ◦和0.34◦。需要注意的是,CNN 只训练了一次,然后该模型被用于这里考虑的所有物体和表面:对于具有不同摩擦特性的不同形状的物体,它不需要重新训练或替换。

E. 物体和表面

在前两个实验中,我们使用了一系列不同形状、大小和质量的棱柱形塑料物体。通过使用棱柱形物体,我们可以简化传感器接触角 β 的计算,它需要保持推动运动与支撑表面平行。由于物体的侧面垂直于支撑表面,因此该角度通常设置为零。然而,它也可以改变以补偿较软表面上物体的任何前倾。对于具有倾斜侧面的物体,例如圆锥或平截头体,传感器接触角需要从模型或测量值中获得,或者通过将触觉传感器与物体的表面和侧面接触来估计。

在第三个实验中,我们使用了一些不规则的日常物品来证明该方法对物体、形状、大小和材料变化的稳健性。选择这些对象是为了使用可管理数量的对象来说明各种材料属性,例如形状、纹理、柔顺性和透明度。由于我们目前的触觉传感器设计不能靠近表面放置,我们没有考虑低剖面、扁平的物体。此外,这里只考虑了平坦的水平表面,因为对于不规则的物体,弯曲的表面会带来额外的俯仰和与表面碰撞的挑战。总的来说,这足以探索对不规则物体的推动控制。未来的工作可以建立在这种方法的基础上,使用重新设计的传感器来展示更多的通用性。

我们将物体推过中等密度的闭孔聚乙烯泡沫板,该泡沫板可以作为水平面平放或在硬纸板成型器上弯曲以形成凸面或凹面曲面。我们之所以选择这种材料,是因为它具有广泛的可用性、可重构性,而且其更柔软的性质使其成为推动物体穿过的更具挑战性的表面类型之一。为方便起见,我们还在基础坐标系中定义了位于(-85, -330, 70, 180, -90, 0) 处的工作坐标系。这里,前三个空间坐标以毫米为单位;最后三个旋转角度(extrinsic-xyz Euler 约定)以度为单位。

F. 物体姿态追踪

为了在推动序列期间捕捉物体的运动,我们使用英特尔实感D435 深度摄像头来跟踪附着在每个物体上表面的ArUco 标记(25× 25 毫米)。相机使用直接从相机 API 获得的内在参数进行校准,并使用手眼校准程序计算出外在参数。我们使用来自相机的彩色图像来计算相机帧中标记的(近似)姿态,并使用在标记质心处获取的深度读数来更准确地计算它们的位置。使用外部相机参数将标记姿势和位置转换为机器人基础框架,以提供~1 mm 的位置精度。

2、结果

我们在三个实验中评估了我们的方法:第一个研究了该方法对初始接触位置和角度变化的稳健性;第二个评估该方法在平面和曲面上对五种不同的对象形状和三种不同的起始位置(相对于目标)的执行情况;第三个通过从第二个起始位置(我们认为这是三个起始位置中最具挑战性的)推动它们穿过平面来评估该方法对五个不规则日常物体的稳健性。

A. 实验1 - 改变水平平面的初始接触位置和角度

在第一个实验中,我们将蓝色方形棱镜从工作坐标系原点的起始位置推到 (0, 200, 400, 0, 0, 0) 处的目标位置。为了研究该方法如何响应初始接触位置和角度的变化,我们从七个不同的空间偏移和沿最靠近传感器的物体一侧的三个不同的角度偏移启动了推动序列。我们使用了 (-30, -20, -10, 0, 10, 20, 30) mm 范围内的空间偏移和 (-20, 0, 20) ° 范围内的角度偏移,并记录了传感器和物体(ArUco 标记))空间和角度偏移的每种组合的十次试验的轨迹。我们还计算了在推动序列完成时从传感器的中心轴到目标的距离y_targ 的平均值± 标准偏差,以衡量推动者能够接近目标的距离。在这个实验中,我们在7 ×3 × 10 = 210 次试验中计算出这些值是 1.27 ± 0.51mm。

尽管初始接触位置和角度发生变化,但轨迹都以良好的精度平滑地收敛在目标上,证实该方法对初始配置的变化具有鲁棒性。

B. 实验2 - 改变平面和曲面的对象形状和相对于目标的起始位置

在第二个实验中,我们将五个几何对象从三个不同的起始位置推向(0, 200, 400, 0, 0, 0) 处的目标。对于第一个开始位置(在此图中标记为“开始 1”),传感器最初移动到工作框架的原点,就像第一个实验一样。对于第二个起始位置(“start 2”),传感器在位姿 (0, 0, 200,-150, 0, 0) 处初始化,该位姿更接近目标但指向相反的方向,以便进行更广泛的机动需要才能达到它。对于第三个起始位置(“start 3”),传感器在姿势 (0, 200,150, 45, 0, 0) 处初始化,该姿势更接近目标但指向远离目标,以便更快速地机动达到它所必需的。

对于每个开始位置,物体直接放置在传感器尖端的前面并旋转到最不利(不稳定)的配置,使得物体的外角位于传感器尖端的中心。对于曲面,我们增加了起始姿势的高度,以允许在凸面的中心和凹面的边缘处增加 45 毫米的表面高度。

对于物体和起始位置的 5 × 3 = 15 组合中的每一个,我们记录了十次试验中的传感器和物体轨迹,并计算了距离 y_targ 的平均值± 标准偏差,作为推动者能够接近目标的距离的度量。目标。这些值在图 10 中与相应的传感器和对象轨迹一起显示。每五次推动运动绘制轨迹以避免数字变得过于混乱。在所有对象和起始位置中,距离 y_targ 的平均值± 标准偏差为1.18 ± 1.10 毫米。对于凸曲面和凹曲面,这些值分别增加到5.54 ± 4.17 mm 和 4.78 ± 3.35 mm。

C. 实验 3——在平面上推动不规则的日常物体

在第三个实验中,我们将五个不规则的日常物体从第二个起始位置(“start2”)的随机初始方向推向(0, 200, 400, 0, 0, 0)处的目标。由于在这个实验中,我们还改变了物体的初始方向,我们决定将起始位置的数量限制为一个,以避免过多的实验配置。无论如何,我们认为第二个起始位置是最具挑战性的,足以证明该方法可以应对推动一系列不规则形状的日常物品。我们对不规则物体和其他实验条件的选择在方法的第 III-E 节中进行了解释。 对于每个物体,我们记录了十次试验(每次从不同的随机物体方向开始)的传感器和物体轨迹,并计算了距离 y_targ 的平均值±标准偏差,作为推动者接近目标的距离的衡量标准。这些值显示在图11 第一列中相应的传感器和对象轨迹旁边。在所有对象和(随机)起始方向上,距离ytarg 的平均值± 标准偏差为3.05 ± 3.36 毫米。

3、讨论

本文提出了一种基于目标触觉探索的机器人推动方法。我们已经证明它可以达到良好的精度,并且对初始接触位置和角度的变化以及不同的物体形状和相对于目标的起始位置具有鲁棒性。在这项工作中,我们已经证明,无需直接模拟推动者 - 对象交互的动力学,就可以在机器人推动方面表现良好。尽管我们在我们的系统中使用了一个模型(CNN 姿势预测模型),但我们还没有使用一个模型来明确地尝试预测对象姿势如何响应特定的推动动作而发生变化。这就提出了一个有趣的问题,即应该对系统的哪些方面进行建模(无论采用何种建模方法)以实现最佳性能。迄今为止,大部分工作都集中在对象交互的动力学建模上,但事实证明,这可能不是推广到不同情况的最容易的方面。我们还表明,虽然推动弯曲表面比平坦的水平表面更具挑战性,但仍然可以使用简单的方法实现合理的性能水平。由于大多数现实世界的应用不太可能仅限于平坦的水平表面,因此我们认为该领域的未来研究在开发新方法时也考虑非平面表面和其他更复杂的环境是很重要的。

CAAI认知系统与信息处理专委会供稿

「学术论文」基于FPGA的3D图像传感器设计与实现

摘要: 针对现有3D拍摄设备体积庞大、价格昂贵等问题,利用FPGA高速并行处理能力与图像传感器,设计了微型嵌入式3D图像传感器。通过FPGA同步设置,采集双CMOS图像传感器图像数据,传输至SDRAM进行缓存并按行像素合并后,将左右立体对图像储存至SD卡中。为了对拍摄场景进行监控,进一步研究了左右眼图像按像素进行重配后在裸眼3D显示屏上显示的逻辑控制方法。系统通过仿真及实验表明3D图像传感器的硬件逻辑方法是有效的。中文引用格式: 刘星,梁发云,杨金远,等. 基于FPGA的3D图像传感器设计与实现[J].电子技术应用,2018,44(2):62-65.

英文引用格式: Liu Xing,Liang Fayun,Yang Jinyuan,et al. Design and implementation of 3D image sensor based on FPGA[J]. Application of Electronic Technique,2018,44(2):62-65.

0 引言

裸眼3D技术是《“十三五”国家战略性新兴产业发展规划》中指出的重点发展领域,规划表明了加快虚拟现实、增强现实、全息成像、裸眼三维图形显示(裸眼3D)等核心技术创新发展[1]的决心。影视拍摄的3D摄像机体积庞大、结构复杂且价格昂贵,不适合嵌入式系统的应用,严重制约了裸眼3D技术的产业化应用。而便携式产品、电视机的CPU不具备同步采集3D图像的接口和能力,因此图像3D传感器只能使用FPGA或CPLD器件来高速并行处理图像数据[2]。 本文根据人眼仿生学原理设计一种嵌入式的微型3D图像传感器,研究硬件逻辑方法以实现3D图像的采集、传输、存储及显示,为便携式领域提供获取3D图像数据的手段,力求解决裸眼3D技术产品化面对的技术瓶颈问题。

1 系统设计思想

根据立体视觉原理,3D图像应同步采集并满足成像清晰度、光轴会聚、视差匹配等要求。 3D图像传感器系统结构包含两只CMOS型图像传感器及缓存图像数据的SDRAM,为了对两只图像传感器进行同步配置和采集,只能选用FPGA(或CPLD)作为逻辑控制芯片。 系统总体结构图如图1所示,采用FPGA+双CMOS+双SDRAM硬件结构。FPGA选用Altera公司的EP3C25Q240C8N为主控芯片;为满足图像传感器分辨率的要求,CMOS图像传感器采用500万像素的OV5640;FPGA对OV5640获取的图像数据进行采集并缓存至SDRAM,其容量应满足一帧高清晰度图像数据的存储要求。3D图像传感器的图像拍摄和视频录制方法的指导思想为把同步采集的两只OV5640的图像数据按行像素进行合并,以左右格式的全宽或半宽立体对图像储存至SD卡中。使用裸眼3D液晶屏作为实时监控设备,FPGA逻辑控制左右图像的像素重配后,再输入至裸眼3D显示屏显示。

由于FPGA并不是CPU结构,而是一个可定制的能实现复杂逻辑电路的器件,因此需要为所连接的器件设计逻辑控制模块。根据3D图像传感器的功能要求,按照图像数据的流向,FPGA的内部逻辑设计应包括图像采集模块、SDRAM缓存控制模块、SD卡储存模块、裸眼3D LCD显示控制模块及系统控制模块。 OV5640工作时钟为24 MHz,FPGA外部时钟为50 MHz,SDRAM工作时钟为100 MHz,LCD的工作时钟为25 MHz,所以系统控制模块需解决跨时钟域数据通信的问题。FPGA内部逻辑设计如图2所示。

2 图像数据采集与缓存方法

3D拍摄时,如果两只图像传感器未有效同步,则运动物体的曝光成像就会存在时间差,其后果是左右眼图像不同步,从而使3D视觉无法形成而导致显示失败。因此3D图像传感器必须保证像素级的同步,使用FPGA的硬件逻辑控制来完成图像传感器准确的同步配置和同步采集。2.1 图像传感器同步配置及其数据采集 通过SCCB(串行摄像机控制总线)对OV5640的工作寄存器进行配置[3],本文把图像传感器的图像输出数据设置为RGB565,再根据图像监控设备的分辨率1 024×768和800×600,把左右眼图像传感器的分辨率按半宽原则设置为512×768和400×600,帧频为30 f/s,以此来验证FPGA的逻辑算法是否正确。 OV5640初始化完成后,图像传感器开始启动工作,按设置的帧频从数据接口输出图像数据。FPGA在PCLK(像素时钟)、HREF(行同步信号)和VSYNC(场同步信号)的控制下开始采集OV5640的图像数据Data[7..0],设计逻辑算法将采集到的相邻的两个字节数据转换为16位的图像数据。使用Signal-tapII在线采集行场信号与数据信号的时序波形如图3所示,当PCLK处于上升沿时检测行场信号,VSYNC处于低电平且HREF为高电平时表示正在采集图像数据,当VSYNC信号由低电平转高电平时,表示开始采集新的一帧图像数据。观察图3波形可知,设计的图像传感器数据采集的逻辑算法正确。

2.2 图像数据缓存 为解决跨时钟域数据通信问题,FPGA内部构建了wr_FIFO和rd_FIFO连接OV5640和SDRAM,wr_FIFO用于接收OV5640采集的图像数据,rd_FIFO用于缓存输出至LCD的图像数据。当wr_FIFO接收到wr_req(写数据请求)时,OV5640采集到的数据缓存至wr_FIFO中;当rd_FIFO接收到rd_req(读数据请求)时,rd_FIFO将缓存的数据输出至LCD显示。 由于3D视频图像数据量大、传输速度高、像素级同步的要求,为了保证数据的有效处理,设计了SDRAM控制模块,运用了轮序法对SDRAM进行分时操作[4]。当SDRAM进行写操作时,数据首先写入BANK0,写完一帧图像数据后,切换为BANK3;当SDRAM进行读操作时采用相同逻辑,切换BANK。根据以上逻辑,将轮序法操作SDRAM算法封装成SDRAM控制器,使得图像数据在SDRAM中的缓存更为简化和高效。左图像传感器的数据缓存操作流程如图4所示。

3 图像储存

SD卡具有尺寸小、功耗低、读取速度快等优点,所以在便携式储存领域应用广泛[5]。SPI以主从方式工作,系统采用SPI模式实现SD卡与FPGA的通信,由SPI_CLK(时钟信号)、SPI_MISO(主机输入从机输出)、SPI_MOSI(主机输出从机输入)、SPI_CSN(片选信号)组成。 分辨率为2 048×768的左右立体对图像以BMP格式储存在SD卡中,分为三个过程:立体对图像数据转化为BMP图像数据格式;SD卡初始化;SD卡写操作控制[6]。3D图像传感器采集的图像数据为RGB565,SD卡则以真彩色RGB888格式进行储存,所以需RGB565转RGB888操作,有两种方案选择,一是采取低位补零方法,二是RGB565数据向高位移位后低位补原数据的高位,系统对两个方案都进行了实验,观看效果一致。SD卡的初始化按照SD卡的初始化流程实现。采用FAT16文件系统对SD卡进行扇区管理,以便立体对图像数据的正确写入,使用Verilog_HDL(硬件描述语言)将FAT表、根目录及54 B的BMP文件信息写入SD卡对应的物理地址。在左右数据通道的控制下,将左右图像数据写入SD卡的数据区,左数据通道选通时序图如图5所示,右数据通道选通时序关系同理。

4 图像显示

采用8英寸裸眼3D显示屏对采集到的图像进行显示,该裸眼3D显示屏能兼容2D和3D显示,所以分别设计了左右立体对显示和像素重配后的3D显示两种逻辑算法。系统采用LCD的驱动模式为DE模式,DE信号相当于行场两个同步信号的复合信号,通过h_cnt和v_cnt两个计数器控制DE_h和DE_v两个同步信号,逻辑为DE=DE_h&DE_v,当DE为高电平时,LCD显示接收到的图像数据。 2D显示时,将具有一定视差的左右立体对图像映射至LCD,根据时序标准,切换左、右数据选通信号,使得左、右图像数据按行传输至LCD上显示。硬件上设计了VGA接口和LCD接口,分别将立体对图像映射至液晶电视和LCD上显示,两者映射原理相同,只是时序不同,左右立体对图像映射至LCD的示意图如图6所示。

3D显示时,将左、右图像数据分别映射至裸眼3D显示屏左、右眼亚屏幕[7],即左图像数据映射在屏幕的奇列像素上,右图像数据映射在屏幕的偶列像素上,将左右图像数据进行行压缩逻辑设计,按照时钟频率交替写入LCD中,完成像素重配。裸眼3D显示屏在结构上和普通2D显示屏有很大的不同,观看角度上也存在差异。当人眼处于独立视区时,左右眼能独立地看到左右亚屏幕上的图像,通过大脑视觉中枢融合形成裸眼3D效果[8]。当人眼处于非独立视区时,左右眼分别能看到左右亚屏幕上的图像,此时形成重影而影响观看效果。左右立体对图像像素重配后映射至LCD的示意图如图7所示。

5 仿真分析及实验

OV5640采集8 bit的图像数据在SDRAM缓存过程中需转换为RGB565格式的16 bit数据,使用嵌入式逻辑分析仪Signal-tapII对该转换进行仿真分析,仿真波形如图8所示,通过观察信号的值可验证该逻辑设计正确。对像素重配后在裸眼3D屏上显示的图像数据进行仿真分析,其波形如图9所示,通过在线仿真可看出3D显示时的图像数据和左右图像传感器获取的图像数据严格一致。

系统使用了液晶电视和裸眼3D显示屏进行了实验,准确稳定地将采集到的高清立体对图像输入并显示。3D图像传感器将立体对图像像素重配后输入至裸眼3D显示屏显示,效果良好。实验结果表明,设计的3D图像传感器及其逻辑算法能对3D图像进行完整的采集、传输、储存、显示,验证了系统硬件逻辑算法的正确性。6 结论

便携式3D拍摄设备具有广阔的发展前景,根据人眼立体视觉仿生原理设计的3D图像传感器利用了FPGA高速并行处理的优势,使得硬件构架上更为集成化,解决了3D视频图像来源、储存和像素重配等问题。系统工作稳定,移植性好,通过修改模块程序即可支持不同的图像传感器和显示器,支持2D和3D显示,具有较好的兼容性。 3D图像传感器提供了3D图像获取的手段,使用者可随时随地记录3D场景,可在裸眼3D设备上复现三维场景,获得临场感和沉浸感。3D图像传感器的研制为3D图像传感器的专用集成电路设计提供了有益的参考。

参考文献 [1] “十三五”国家战略性新兴产业发展规划(全文)[J].中国战略新兴产业,2017(1):57-81.[2] 梁发云,何辉,施建盛,等.基于FPGA的视频信号采集技术研究[J].电视技术,2014,38(7):54-57.[3] Omini Vision.OV5640 datasheet[Z].2011.[4] 戚翔宇.3D传感器左右视频合成技术研究[D].南昌:南昌大学,2016.[5] 刘敏,梁发云,王兴鹏.裸眼3D系统SD卡FPGA读取显示研究[J].电视技术,2015,39(9):40-43.[6] 陈辉.高清3D传感器数据处理技术研究[D].南昌:南昌大学,2017.[7] Liang Fayun,Cheng Jie,Tie Zhicheng,et al.Dynamical assembly for naked-eye-stereoscopic LCD screen[J].Advanced Materials Research,2011,403-408(11):3095-3098.[8] 梁发云,邓善熙,杨永跃.自由立体显示器的视觉特性测量与研究[J].仪器仪表学报,2006,27(10):1350-1353.

相关问答

传感器论文 有哪些好处?

传感器论文可以让我们更加了解传感器特性以及作用,更大的明白传感器的本质特征,传感器论文可以让我们更加了解传感器特性以及作用,更大的明白传感器的本质特征,

论文 中介绍 传感器 单片机功能的部分怎么改,重复率才能降低呢?感觉这些东西都没法改的呀?

介绍单片机部分,成千上万人都写8051,肯定重复啊。把单片机换成STC的单片机,最好用新型号,如STC15系列,并去STC官网,下载技术手册,估计没人写,参照技术手...

无线 传感器 在智能家居中的应用 论文 ?

无线传感器在智能家居中发挥着重要作用,它们能够实现对家居环境的实时监测和数据采集,从而为居民提供智能化的生活体验。通过无线传感器,居民可以监测室内温...

网站可通过浏览器API访问移动设备的 传感器 数据,Chrome该如何做好隐私防护?

地理位置信息类似,运动信息可以识别用户是否在静坐、行走、或搭乘交通工具。结合模式识别算法,甚至能够了解用户独特的行走步态。早在2016年的开创性研究...

德州学院物理与电子信息学院怎么样?设有哪些专业? 申请方

[回答]~接下来我为大家简单介绍一下我们德州学院的物理与电子信息学院开设的专业以及研究情况专业设置:物理学(师范类)、应用物理学、电子信息工程、物联...

英语翻译《CCD图像 传感器 用于光学系统像差测量》 论文 题目!_...

[最佳回答]"CCDImagesensorUsesinOpticalsystemAberrationSurvey"thepapertopic!

物联网工程专业 论文 导论要怎么写?

这个首先要看论文的方向和思路。物联网作为互联网的新生力量,是互联网指数变化的新的增长点,物联网技术涉及了嵌入式芯片、传感器、通讯、网络、大数据、人工...

斯坦福团队研发的粘附在皮肤上的弹性 传感器 有哪些用途?

去年斯坦福大学的科学家们设计了一种可穿戴式皮肤传感器,可以通过汗液中的皮质醇水平测量压力。现在,该大学的研究人员已经宣布了一种追踪其他生命体征的类似传...

论文 摘要翻译,着急要的,不要网上直译的近年来,温湿度测量已...

[最佳回答]Inrecentyears,measurementtechnologyoftemperatureandhumidityhasgraduallybecomeanimportan...

大专机电一体化毕业 论文 ?

机电一体化毕业论文绪论现代科学技术的不断发展,极大地推动了不同学科的交叉与渗透,导致了工程领域的技术革命与改造。在机械工程领域,由于微电子技术和计...

展开全部内容