传感器

人与机器的“对话”——人机交互技术的多领域应用

2025China.cn   2010年06月17日

     自计算机以一个庞然大物的笨拙体态出现直到现在,它已经越来越紧密地融入了人们的日常生活,并已经被公认为解决医疗、教育、科研、环保等各类重大社会问题不可或缺的重要工具。在从人逐渐适应计算机再到计算机不断适应人的互动过程中,人机交互技术也不再局限于键盘输入、手柄操作,而是以更加新奇的方式出现:手指的微小动作、声波在空气中的振动、眼珠和舌头的转动,都可以实现信息传递,完成人与机器之间的“对话”。

  2008年,微软总裁比尔·盖茨提出“自然用户界面”(natural user interface)的概念,并预言人机互动模式在未来几年内将会有很大的改观,电脑的键盘和鼠标将会逐步被更为自然、更具直觉性的触摸式、视觉型以及声控界面所代替。而随着技术的精进,“有机用户界面”(organic user interface)也开始悄然兴起——生物识别传感器、皮肤显示器,乃至大脑与计算机的直接对接,无疑都将给人类的生活带来重大影响。《未来学家》杂志5/6月号刊登的文章,就对当前正在研发或者已投入商用的各类人机交互技术进行了盘点。 

  触摸式显示屏

        触摸式显示屏在很多领域已经被广泛应用,最为人熟知的就是安装在机场或者商场的Kiosk自助服务设备,游客或购物者通过手动触摸屏幕,就可以查询相关信息,办理登机手续,甚至购买报纸。

  2007年,微软公司推出了“桌面”(Surface)计算机,带来了全新的触摸式人机交互模式。这款酷似咖啡桌桌面的平板电脑完全摒弃了鼠标和键盘,通过声音、笔或者触摸就可以完成编辑、浏览图片或者直接订餐等操作。其显示屏隐藏在硬塑料板底下,依靠一套摄像机系统捕捉人发出的指令动作,然后进行分析、理解并加以执行。更令人称奇的是,只要将手机、播放器等物品放到其表面,电脑就能自动识别并进行文件传输。由于“桌面”计算机的屏幕可以分割,并且使用了多点触控技术,可方便多达10个用户同时使用。

  而今年6月,“桌面”将迎来一个强劲对手,索尼公司计划推出一款名为AtracTable的茶几电脑与之一较高下。AtracTable也可以与放在它表面的手机等设备进行交流互动。另外,该款电脑中还集成了年龄、性别、情绪等分析系统,可以智能识别使用对象。索尼的目标是将之推广到各种使用环境,包括游戏行业、工业、医疗市场和零售业等。

  柔性显示屏 超薄、超轻的柔性显示屏已经走出实验室,很快就会进入市场“打江山”。很多评论人士认为,使用能够随意折叠卷曲的柔性显示屏制造的电子书就是未来的纸张。

  目前电子书阅读器的柔性显示屏有多种类型,其中包括可以主动发光但却会给读者的眼睛带来刺激和伤害的有机发光二极管(LOED)显示屏、需要使用背景光的液晶显示屏(LCD)、以及用在亚马逊Kindle电子书阅读器上的由美国E-Ink公司利用电泳显示技术制造的电子纸。

  不同的显示技术之间各有优劣,因而拥有不同的应用市场,比如,LOED显示屏的刷新率更快,而E-Ink公司的电子纸则更加节能。在将来,报纸、杂志甚至服装、墙面都可以变成显示屏,向我们展示一幅幅动态画面。

  3D显示器 尽管3D电影早在90年前就已经问世,但2010年才算是真正的“3D元年”,索尼、松下和其他厂商纷纷宣布自己生产的3D电视机年内即可上市销售,将3D影像从电影院搬进客厅已是指日可待。

  目前的3D电视机仍然需要观众佩戴特制的眼镜才可以收看节目。眼镜的规格大致分为主动式快门3D眼镜和偏光3D眼镜两种,并且没有通用的工业标准,由各厂商自行研制。

  虽然产业界认为,近期3D电影在全球票房大卖,预示着家庭市场已经做好了迎接3D的准备,不过,普通观众是否能够忍受连续好几个小时戴着特制眼镜看电视还是个未知数。而据专家预测,无需佩戴眼镜就可收看节目的3D电视机大概还要再等10年左右才会推向市场。 

  视网膜显示器 视网膜显示器能够通过低强度激光或者发光二极管直接将影像投射到使用者的视网膜上,具有不遮挡视野的特点。

  这一概念是在20多年前提出的,但直到近些年来技术进步才让各种不同的视网膜显示变得可行。比如边发射发光二极管,其比面发射发光二极管的光输出功率大,但比激光的功率要求低,将其应用于视网膜显示器,可提供一个亮度更高而成本更低的选择。与传统显示器相比,视网膜显示器的亮度-功率比更高,能耗也会相应地大幅降低。

  视网膜成像的应用前景非常广阔,比如车载平视显示器,可将重要的驾驶信息投射在汽车的前风挡玻璃上,司机平视就可以看到,从而可以提高行车安全;此外还可为执行军事任务的士兵提供最优路径和战术信息,并且在医疗手术、浸入式游戏行业也大有作为。日本兄弟公司曾在2005年的日本“爱知世博会”上展示了全球首款视网膜显示器。该公司最近宣布,计划于今年发布一款使用红光、绿光和蓝光激光二极管的商用视网膜成像显示器。

  地理空间跟踪 地理空间跟踪的应用潜力才刚刚开始展现,在未来几年中有望取得巨大的技术进步。智能手机配备的全球定位系统、定向仪和加速度计可以提供足够多的信息,来帮助使用者确定大概地点和方向。而技术的改进将有可能使跟踪的精度提高到误差不超出1毫米。

  很多针对手机开发的现实增强应用,如基于位置的营销、旅游帮助和社交网络等,都使用了地理空间数据,可以提供基于使用者所处方位的关联信息。在未来几年内,随着跟踪定位精度进一步提高以及无线网络进一步提速,这块市场将会大幅增长。

  动作识别 动作识别是一项正在发展中的技术,在很多方面都可得到应用,如可穿戴式计算机、隐身技术、浸入式游戏以及情感计算(一种可对人类的情感进行侦测、分类、组织和回应的系统或应用,可以帮助使用者获得高效而又亲切的感觉)等。过去大部分动作识别系统重点分析的是脸部和手部的动作,不过现在,研发人员也开始将关注点转移到身体姿势、步态和其他行为举止上来。

  一些具有动作识别能力的控制设备已经达到了消费者水平,比如任天堂的游戏主机Wii,其主要控制器Wii Remote作为单手操作的遥控器最主要的特色就是其配备了运动传感器,可以对移动和倾斜动作作出判断,将玩家手臂、手腕以及手的动作真实地反映在游戏中,从而与电视荧幕上的虚拟物件产生互动。

  与此同时,动作识别系统也开始进入医疗领域,医生无需触碰键盘或者屏幕就可以操控数字影像。 

  触觉交互 触觉交互已成为人机交互领域的最新技术,其可借助人的触感,产生一种虚拟现实的效果。触碰可以产生多种不同的感受,包括轻碰、重碰、压力、疼痛、颤动、热和冷,因此人工模拟这些感受的方式也各异。

  触觉交互技术已经开辟了多种可能的应用领域,包括虚拟现实、遥控机器人、远程医疗、工作培训、基于触觉的三维模型设计等。而在电子商务方面,触觉交互也能够发挥重要作用。比如,顾客在网上购买服装之前,可以先感知一下衣料的质地,然后再做决定。

  日本东京大学的研究人员正在开发一个被称为“触觉雷达”(Haptic Radar)的项目,通过对使用者周围几米内的环境进行探测,然后将相关信息转换成颤动或者其他感官刺激传达给使用者,从而提高其对空间的感知能力。对于失明的人来说,这种触觉雷达可以让他们在行走过程中避免与身边的人或者物体相撞。

  随着技术进步,触觉交互最终或许可以让我们拥有之前从未曾体会过的一些感受。

  可触式(实体)用户界面 可触式(实体)用户界面是自然用户界面的一种,这种设备的奇妙之处在于,它集合了多种功能于一体,比如手机、照相机、遥控器等,并且会随时“变身”,而这完全取决于用户抓握它的方式。

  麻省理工学院媒体实验室去年推出了一个名为“肥皂块”(bar of soap)的装置,其外形与一块洗衣皂相差无几,但是,如果用户像拿手机一样拿着它,它就会变换出一个带健区的触摸屏;如果像拿照相机一样拿着它,它又会自动转为液晶取景器。其中的奥秘就是“肥皂块”带有的一个三轴加速计和72个表面传感器,可以追踪用户手指位置以及自己所处的位置,然后判断应该“变身”为手机、照相机、遥控器、掌上电脑还是游戏机。

  而麻省理工学院媒体实验室的另一个发明,是一款与曲奇饼差不多大的计算机,被称为Siftable。其虽然个头小,却同样拥有图形显示、邻域检测、运动感应和无线通信功能。如果将多个Siftable排列组装,就可以实现多种不同的交互应用,比如数学游戏、音乐创作、色彩混合、图片整理或者情节串联图板游戏等,这对激发孩子的学习热情大有帮助。

  语音识别 能够直接与机器交谈的能力在很多领域都会具有巨大的应用潜力。如果双手可以因语音识别系统得到“解放”,开车,修理发动机,烹饪一道美餐,或者实施一台手术,这些活动都能够从中获益。

  目前,语音识别技术已经被应用于呼叫路由、家庭自动化、语音拨号以及数据录入等服务。针对国际旅行者的语言对语言翻译器已经开始进入市场,大概再过几年,人们就能买到全球通用的实时翻译器了。

  无声语音(默读)识别 通过默读识别,使用者不需要发出声音,系统就可以将喉部声带动作发出的电信号转换成语音,从而破译人想说的话。但该技术目前尚处于初级研发阶段。

  在嘈杂喧闹的环境里、水下或者太空中,无声语音识别是一种有效地输入手段,有朝一日可被飞行员、救火队员、特警以及执行特殊任务的部队所运用。研究人员也在尝试利用无声语音识别系统来控制机动轮椅车。对于有语言障碍的人士,无声语音识别技术还可以通过高效的语音合成,帮助他们同外界交流。如果这项技术发展成熟,将来人们网上聊天时就可以不必再敲键盘。

  美国宇航局艾姆斯研究中心正在开发一套无声语音识别系统。研究人员表示,当一个人默念或者低语时,不论有没有实际的唇部和脸部动作,都会产生相应的生物学信号。他们开发的这套识别系统在人体下巴和喉结两侧固定钮扣大小的特殊传感器,可以捕获大脑向发声器官发出的指令并将这些信号“阅读”出来。这套系统最终将会整合进宇航员的舱外活动航天服上,宇航员可以通过它向仪器或机器人发送无声指令。该项目首席科学家恰克·乔金森表示,几年之后,无声语音识别技术就能够进入商业应用。

  眼动跟踪 眼动跟踪的基本工作原理是利用图像处理技术,使用能锁定眼睛的特殊摄像机连续地记录视线变化,追踪视觉注视频率以及注视持续时间长短,并根据这些信息来分析被跟踪者。

  越来越多的门户网站和广告商开始追捧眼动跟踪技术,他们可以根据跟踪结果了解用户的浏览习惯,合理安排网页的布局特别是广告的位置,以期达到更好的投放效果。德国Eye Square公司发明的遥控眼动跟踪仪,可摆放在电脑屏幕前或者镶嵌在屏幕上,借助红外技术和样本识别软件的帮助,就能记录用户视线目光的转移。该眼动跟踪仪已在广告、网站、产品目录、杂志效用测试和模拟研究领域进行了应用。

  由于眼动跟踪能够代替键盘输入、鼠标移动的功能,科学家据此研发出了可供残疾人使用的计算机,使用者只需将目光聚集在屏幕的特定区域,就能选择邮件或者指令。未来的可穿戴式电脑也可以借助眼动跟踪技术,更加方便地完成输入操作。

  电触觉刺激 通过电刺激实现触觉再现,可以让盲人“看见”周围的世界。

  英国国防部已经推出了一款名为BrainPort的先进仪器,这种装置能够帮助失明者用舌头来获知环境信息。

  BrainPort配有一副装有摄像机的眼镜,一根由细细电线连接的“棒棒糖”式塑料感应器和一部手机大小的控制器。控制器会将拍摄到的黑白影像变成电子脉冲,传到盲人使用者口含的感应器之中,脉冲信号刺激舌头表面的神经,并由感应器上的电极传到大脑,大脑就会将感知到的刺激转化成一幅低像素的图像,从而让盲人清楚地“看到”各种物体的线条及形状。该装置的首个试用者、失明的英国士兵克雷格·卢德伯格现在已经能够在不靠外力辅助的情况下独立行走,进行正常阅读,并且他还成为了英格兰国家盲人足球队的一员。

  从理论上来说,指尖或者身体的其他部位也能够像舌头一样被用来实现触觉再现,并且随着技术进步,大脑所感知到的图像的清晰度将大幅提高。在将来,还可经由可见光谱之外的脉冲信号来刺激大脑形成图像,从而产生很多新奇的可能,比如应用在可见度极低的海域使用的水肺潜水装置。

  仿生隐形眼镜 数十年来,隐形眼镜一直是一种用于矫正视力的工具,而现在,科学家希望将电路集成在镜片上,打造出功能更强大的超级隐形眼镜,它既可以让佩戴者拥有将远处物体“拉近放大”的超级视力,显示出全息图像和各种立体影像,甚至还可以取代电脑屏幕,让人们随时享受无线上网的乐趣。

  美国华盛顿大学电子工程系的科学家们就利用自组装技术,使纳米大小的细粉状金属成分在聚合体镜片上“自我装配”成微电路,成功地将电子电路与人造晶体结合在一起。该项目负责人巴巴克·帕维兹称,仿生隐形眼镜使用了现实增强技术,可以让虚拟图像同人的视野所及之处的真实景象相叠加,这将完全改变人与人之间、人与周围环境互动的方式。一旦最后设计成功,它可以把远处的物体放大到眼前,可以让电游玩家仿佛亲身进入到虚拟的“游戏世界”中,也可以让使用者通过只有自己能看到的“虚拟屏幕”无线上网。

  由于这种隐形眼镜会始终与人体体液保持接触,其也可被用作非侵入式的人体健康监测仪,比如监测糖尿病人体内胰岛素水平。帕维兹预测,类似的监测仪器在5年到10年内就可能面世。

  人机界面 人机界面也被称为“脑机接口”,它是在人或动物脑(或者脑细胞的培养物)与外部设备之间建立的直接连接通路,即使不通过直接的语言和行动,大脑的所思所想也可以借由这条通路向外界传达。

  人机界面分为非侵入式和侵入式两种。在非侵入式人机界面中,脑电波是通过外部方式读取的,比如放置在头皮上的电极可以解读脑电图活动。以往的脑电图扫描需要使用导电凝胶仔细地固定电极,获得的扫描结果才会比较准确,不过现在技术得到改进后,即使电极的位置不那么精准,扫描也能够将有用的信号捡取出来。其他的非侵入式人机界面还包括脑磁图描记术和功能磁共振成像等。

  为了帮助有语言和行动障碍的病患,美国、西班牙和日本的研究人员近年来已经相继开发出了“意念轮椅”,这些装置都是利用外部感应器来截获患者大脑发出的神经信号,然后将信号编码传递给电脑,再由电脑分析并合成语言或形成菜单式操控界面,来“翻译”患者的需求,并让轮椅按照这些需求为患者服务,让他们真正做到“身随心动”。

  去年4月,美国威斯康星州立大学麦迪逊分校的生物医学博士生亚当·威尔逊戴上自己研制的一种新型读脑头盔,然后想了一句话:“用脑电波扫描发送到Twitter上去。”于是这句话出现在了他的微博上。由于技术限制,该设备每分钟只能输入10个字母,但却显示了可观的应用前景。闭锁综合征患者(意识清醒,对语言的理解无障碍,但因身体不能动,不能言语,常被误认为昏迷的病人)和四肢瘫痪者都有望依靠大脑“书写”文字、控制轮椅移动来重新恢复部分功能。

  而侵入式人机界面的电极是直接与大脑相连的。到目前为止,侵入式人机界面在人身上的应用仅限于神经系统修复,通过适当的刺激,帮助受创的大脑恢复部分机能,比如可以再现光明的视网膜修复,以及能够恢复运动功能或者协助运动的运动神经元修复等。科学家还尝试在全身瘫痪病患的大脑中植入芯片,并成功利用脑电波来控制电脑,画出简单的图案。

  美国匹兹堡大学去年在开发用大脑直接控制的义肢上取得了重大突破。研究人员在两只猴子大脑运动皮层植入了薄如发丝的微型芯片,这块芯片与做成人手臂形状的机械义肢无线连接。芯片感受到的来自神经细胞的脉冲信号被电脑接收并分析,最终可转化为机械手臂的运动。试验结果显示,这套系统行之有效。猴子通过思维控制机械手臂抓握、翻转、拿取,行动自如地完成了进食动作。

  除了医疗领域,人机界面还有很多令人惊叹的应用。比如家庭自动化系统,可以根据是谁在房间里面而自动调节室温;当人入睡之后,卧室的灯光会变暗或者熄灭;如果有人中风或者突发其他疾病,会立即呼叫护理人员寻求帮助。

  到目前为止,大部分人机界面都采用的是“输入”方式,即由人利用思想来操控外部机械或设备。而由人脑来接收外部指令并形成感受、语言甚至思想还面临着技术上的挑战。

  不过,神经系统修复方面的一些应用,比如人工耳蜗和人造视觉系统的植入,可能开创出一条新思路:有一天科学家或许能够通过与我们的感觉器官相连,从而控制大脑产生声音、影像乃至思想。但与此同时,随着各种与人类神经系统挂钩的机械装置变得越来越精巧复杂、应用范围越来越广泛、并且逐步拥有远程无线控制功能时,安全专家们就要担心“黑客入侵大脑”的事件了。

(转载)

标签:人机交互 人机界面 我要反馈 
什么是新一代机器人界面(HMI)?
ABB协作机器人,自动化从未如此简单
优傲机器人下载中心
即刻点击并下载ABB资料,好礼赢不停~
西克
专题报道