首页 理论教育 远程医学的技术基础

远程医学的技术基础

时间:2022-05-14 理论教育 版权反馈
【摘要】:随着信息技术的迅速发展,远程医学也在不断地进步,其各个发展阶段也就打上了信息技术发展的烙印。表11-1给出的是远程医学技术发展的过程。从技术角度来看,远程多媒体通信系统是建立在通信技术、计算机技术、多媒体技术等高新技术基础之上的应用系统。MC处理所有终端之间的H.245协议,以确定共同的音频和视频处理能力。

11.3 远程医学的技术基础

11.3.1 远程医学技术发展历程

随着信息技术的迅速发展,远程医学也在不断地进步,其各个发展阶段也就打上了信息技术发展的烙印。表11-1给出的是远程医学技术发展的过程。

表11-1 远程医学技术发展过程

img132

11.3.2 远程医疗中的多媒体通信技术

多媒体通信系统是利用数字视音频和通信网络进行多媒体通信的一种方式。多媒体通信系统实时性、交互性好的特点,使它在远程教育、远程医疗等方面大有用武之地。今天人们可以坐在医院的会议室、医疗现场,通过网络进行万里之外的医疗咨询、学术交流活动或远程会诊。

从技术角度来看,远程多媒体通信系统是建立在通信技术、计算机技术、多媒体技术等高新技术基础之上的应用系统。远程多媒体通信系统的实现,目前大多是采用公共电信网、虚拟专网、双向数字压缩的加密卫星、CATV、DSL(digital subscriber line,数字用户环路)、3G(3rd generation,第三代数字通信)等作为信息传输手段的。

多媒体通信系统主要由终端设备、传输信道以及多点控制单元(multipoint control unit,MCU)等三部分组成。其中,终端设备和MCU是多媒体通信系统所特有的,而传输信道则是指目前现成的、适宜传输多媒体通信系统信号的各类通信信道。

1)终端设备

多媒体通信系统所用的终端设备将视频、音频、数据、控制信令等各种数字信号分别进行处理后组合成一路复合的数字码流,再将它转变为适合在传输网络中传输的帧格式送到信道中进行传输。它主要包括以下几部分:

(1)视频输入/输出设备:视频输入设备包括摄像机、录像机、图文摄像机、VCD等。它们将模拟视频信号通过视频输入口送入编码器进行数字化处理。通常视频输入至少需要三个。模拟视频信号都经过终端设备的视频输入口送入编码器进行数字化处理。

视频输出设备包括监视器、投影机、电视机等。它们的功能是显示接收到的图像,在较大的会场应采用投影机或电视墙进行显示。为了同时显示远端和本端会场,一般采用画中画(Picture in Picture,PIP)的方式。

(2)视频编解码器:视频编解码器是多媒体通信系统终端的核心设备,它能对各种制式的模拟视频音频信号进行数字化和压缩编码处理,以便能在窄带数字信道中传送;或将数字信号进行解码和转换成视频音频模拟信号。

(3)音频输入/输出设备:音频输入、输出设备包括话筒、扬声器、调音设备和回声抑制器。

(4)音频编解码器:音频编解码器能对50—3 400Hz(或50—7 000Hz)的模拟话音信号数字化,或进行反向操作。

(5)信息处理设备:信息处理设备包括电子白板、书写电话等。与会人员可以通过这些设备来讨论问题和实现数据共享等功能。

(6)多路复用/分接设备:该设备将视频、音频、数据、信令等各种数字信号组合为64—1 920kbit/s的数字码流,成为与用户网络接口相兼容的信号格式。

2)传输网络

多媒体通信系统的传输介质可以采用光纤、电缆、微波及卫星等各种信道。在传输方式上它可以在现有的多种网络上展开,例如ATM、DDN、ISDN、SDH数字通信网或帧中继网络等。在新的多媒体通信系统标准(H.323)中,多媒体通信系统信号还可以在LAN、WAN、Internet的各种计算机网上传输。

3)多点控制单元(MCU)

由于目前各种网络本身的控制功能还不能满足多媒体通信系统所要求的多点对多点的控制功能,因此,还需要一种设备来控制各个通信场所之间的信息传输与切换,这就是多点控制单元所要完成的功能。它就像电话网中的交换机一样,按用户的要求完成信息的转接。多点控制单元支持在三个或者更多端点之间进行多媒体通信。在H.323多媒体通信中,一个MCU由多点控制器(multipoint controller,MC)和多点处理器(multipoint processors,MP)组成。MC处理所有终端之间的H.245协议,以确定共同的音频和视频处理能力。MC确定视音频流向,实现多点广播(multicast),从而对会议资源进行控制。MP处理媒体的混合以及处理声音数据、电视图像数据和一般数据等。

H.323会议的多点控制和管理工作方式可以分为下列三种:集中方式的多点控制和管理(centralized multipoint),分布式多点控制和管理(decentralized multipoint)和混合方式的多点控制和管理(hybrid multipoint)。

11.3.3 多媒体通信系统分类

多媒体通信系统有多种分类方法。按传输网络不同可分为基于专网或DDN网、基于PSTN网和基于LAN/WAN网的多媒体通信系统;按终端类型不同则可分为会议室型和桌面型多媒体通信系统。不同种类的多媒体通信系统有不同的特点,因此适合于不同的场合。

1)会议室型多媒体通信系统

会议室型的多媒体通信系统适用于规模较大的会议,它所提供的图像质量、音响效果都比较好,是目前较为普遍采用的一种多媒体通信系统。它在一个固定的专用会议室安装摄像机、投影仪、编解码设备,会议室的灯光、音响系统也是经过专门设计,以满足相应的条件。与会者在这种会议室中开会,可以获得很好的视频音频效果。这种多媒体通信系统对传输信道速率要求比较高,最好能达到2Mbit/s(E1速率)或更高,最少也要有384 kbit/s,以达到理想的效果。

远程教育中双向、实时授课系统主要采用这种类型的多媒体通信系统,它使老师学生之间可以通过语音、图像和文字进行实时的交流,如同在一个教室一样,可以取得良好的教学效果。

2)桌面型多媒体通信系统

桌面型多媒体通信系统与会议室型相比要简单得多,它将多媒体通信系统与个人计算机融为一体,一般由一台个人计算机配备相应的软硬件构成(摄像头、麦克风、用于编解码的硬件或软件),在多个地点进行多方会议时还应设置一台多点控制设备进行对图像语音的切换、控制。这样的系统适合于几个人之间的讨论、商谈,对图像质量要求不高。它通常接在ISDN上以128kbit/s(2B+D)或更低的速率工作,提供CIF或QCIF格式的图像。与会者在办公室或在家中就可以通过自己的终端设备或计算机参与电视会议,他们可以发表意见,观察对方的形象和有关信息,同时双方还可以共享应用程序,利用电子白板(软件)进行书面交流。桌面型多媒体通信系统造价低廉、使用方便、通信费用低,是未来多媒体通信系统发展的主要方向之一。

在远程教育应用中,师生之间的答疑,同学之间的交流、讨论就可以采用这种方式的多媒体通信系统来实现。

11.3.4 数字音视频编解码技术标准

国际上音视频编解码标准主要有两大系列:ISO/IEC JTC1制定的MPEG系列标准;ITU针对多媒体通信制定的H.26x系列视频编码标准和G.7系列音频编码标准。1994年由MPEG和ITU合作制定的MPEG-2是第一代音视频编解码标准的代表,也是目前国际上最为通行的音视频标准。

目前音视频产业可以选择的信源编码标准有三个:MPEG-2/H.263、MPEG-4 AVC(简称H.264/AVC)、AVS。从制订者分,前两个标准是由MPEG专家组完成的,第三个是我国自主制定的。从发展阶段分,MPEG-2是第一代信源标准,其余两个为第二代标准。从主要技术指标——编码效率比较:MPEG-4是MPEG-2的1.4倍,AVS和AVC相当,都是MPEG-2的两倍以上。

目前,国际上普遍采用H.264/AVC视频编码。但是,昂贵的专利许可费用给我国远程医学中使用该标准带来了困难。AVS标准是《信息技术先进音视频编码》系列标准的简称,AVS是基于我国创新技术和部分公开技术的自主标准,编码效率比MPEG-2高2—3倍。H.264/AVC仅是一个视频编码标准,而AVS是一套包含系统、视频、音频、媒体版权管理等四个主要技术标准和一致性测试在内的完整标准体系。

关于H.264/AVC标准和AVS标准的相关理论和技术,请阅读该专业资料。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈