SISTEMAS DE VIDECONFERENCIA SOBRE REDES RDSI, ATM, ETHERNET/IP, FRAME RELAY Y REDES CELULARES MÓVILES KADIR CAMILO ORTEGA FILOZ ALVARO ANTONIO PUELLO ROCA UNIVERSIDAD TECNOLOGICA DE BOLIVAR FACULTAD DE INGENIERIAS DIRECCION DE PROGRAMAS DE ELECTRICA, ELECTRONICA Y MECATRONICA CARTAGENA DE INDIAS 2004 SISTEMAS DE VIDECONFERENCIA SOBRE REDES RDSI, ATM, ETHERNET/IP, FRAME RELAY Y REDES CELULARES MÓVILES KADIR CAMILO ORTEGA FILOZ ALVARO ANTONIO PUELLO ROCA Monografía como requisito parcial para optar al titulo de Ingeniero Electrónico Director ISAAC ZUÑIGA SILGADO Ingeniero de Sistemas UNIVERSIDAD TECNOLOGICA DE BOLIVAR FACULTAD DE INGENIERIAS DIRECCION DE PROGRAMAS DE ELECTRICA, ELECTRONICA Y MECATRONICA CARTAGENA DE INDIAS 2004 N o t a d e a c e p t a c i ó n : Firma del presidente del jurado Firma del Jurado Firma del Jurado Cartagena de Indias, 28 de Mayo de 2004 Al apoyo moral e incondicional y a la constante lucha de mis dos guías, mi padre y mi madre. A mis hermanos y a toda mi familia por ser mis mejores amigos y colaboradores imprescindibles en el alcance de este éxito. Kadir Camilo Ortega Filoz A Dios por ser la mayor fuente de inspiración en mi vida. A mis padres y a mi hermano quienes estuvieron presentes durante todo este proceso iluminándome el camino a seguir para no haber desfallecido en la consecución de este gran sueño. A Adriana Martínez, quien alguna vez me demostró el verdadero significado que tiene Dios en la vida de las personas. Alvaro Antonio Puello Roca AGRADECIMIENTOS Los autores expresan sus agradecimientos a todas las personas que ayudaron y apoyaron el desarrollo de esta monografía y en particular a: Isaac Zúñiga Silgado, Ingeniero de Sistemas, Docente de tiempo completo de la Universidad Tecnológica de Bolívar y Director de la Monografía, por su dedicación y valiosas orientaciones. Eduardo Gómez, Ingeniero Electrónico, Docente de tiempo completo de la Universidad Tecnológica de Bolívar, por la guía entregada en la asignatura de redes de alta velocidad. Cartagena de Indias D. T. y C., Mayo 28 de 2004 Señores: COMITÉ DE EVALUACIÓN DE PROYECTOS Universidad Tecnológica de Bolívar LC. Respetados Señores: Con toda atención, nos dirigimos a ustedes, con el fin de presentar a su consideración, estudio y aprobación, el trabajo titulado “SISTEMAS DE VIDECONFERENCIA SOBRE REDES RDSI, ATM, ETHERNET/IP, FRAME RELAY Y REDES CELULARES MÓVILES”, como requisito parcial para aprobar el Minor en Comunicaciones y Redes. Atentamente, ALVARO ANTONIO PUELLO ROCA KADIR CAMILO ORTEGA FILOZ C.C. 73.192.261 de Cartagena C.C. de 72.261.153 de Barranquilla Cartagena de Indias D. T. y C., Mayo 28 de 2004 Señores: COMITÉ DE EVALUACIÓN DE PROYECTOS Universidad Tecnológica de Bolívar LC. Respetados Señores: Tengo el agrado de presentar a su consideración, estudio y aprobación, la monografía titulada “SISTEMAS DE VIDECONFERENCIA SOBRE REDES RDSI, ATM, ETHERNET/IP, FRAME RELAY Y REDES CELULARES MÓVILES”, desarrollado por los estudiantes Alvaro Antonio Puello Roca y Kadir Camilo Ortega Filoz. Al respecto me permito comunicar que he dirigido el citado trabajo, el cual considero de gran importancia y utilidad. Atentamente, Ing. Isaac Zúñiga Silgado Director del Proyecto Articulo 107 La institución se reserva el derecho de propiedad intelectual de todos los Trabajos de Grado aprobados, los cuales no pueden ser explotados comercialmente sin su autorización. TABLA DE CONTENIDO pág. INTRODUCCION 1 1. ANTECEDENTES DE VIDEOCONFERENCIA 4 1.1 HISTORIA DE LA VIDEOCONFERENCIA 4 1.2 APARICION DE LOS ESTANDARES 8 1.3 CRONOLOGIA DE LA VIDEOCONFERENCIA 10 2. GENERALIDADES DE VIDEOCONFERENCIA 12 2.1 QUE ES VIDEOCONFERENCIA 12 2.2 TIPOS DE VIDEOCONFERENCIA 13 2.3 ELEMENTOS BASICOS DE UN SISTEMA DE VIDEOCONFERENCIA 18 2.4 FUNCIONAMIENTO DE UN SISTEMA DE VIDEOCONFERENCIA 21 2.5 APLICACIONES DE LA VIDEOCONFERENCIA 23 2.6 VENTAJAS Y DESVENTAJAS DE LAS VIDEOCONFERENCIAS 25 3. ESTANDARES 27 3.1 ORGANISMOS ENCARGADOS DE LA ESTANDARIZACION DE LA VIDEOCONFERENCIA 27 3.2 ESTANDARES DE VIDEOCONFERENCIA 31 3.2.1 Sistemas y Equipos Terminales Videotelefónicos de Banda Estrecha, H.320 32 3.2.2 Adaptación de los Terminales Videotelefónicos H.320 a Entornos de la RDSI de Banda Ancha (RDSI-BA), H.321 39 3.2.3 Sistemas y Equipos Terminales Videotelefónicos para Redes de Área Local que Proporcionan una Calidad de Servicio Garantizada, H.322 43 3.2.4 Sistemas de Comunicación Multimedia Basados en Paquetes, H.323 46 3.2.5 Sistemas y Terminales para Comunicaciones Audiovisuales de Banda Ancha, H.310 66 3.2.6 Terminal para Comunicación Multimedia a Baja Velocidad Binaria, H.324 y H.324/M 72 3.2.7 Videoconferencia sobre Redes Frame Relay 79 3.3 ESTANDARES DE CODIFICACION DE VIDEO 87 3.3.1 Códec de Vídeo para Servicios Audiovisuales a p x 64 Kbps, H.261 89 3.3.2 Codificación de Vídeo para Comunicación a Baja Velocidad Binaria, H.263 90 3.3.3 Estándar Genérico de Codificación de Imágenes en Movimiento MPEG-2, H.262 92 3.4 ESTANDARES DE CODIFICACION DE AUDIO 95 3.4.1 Modulación por Impulsos Codificados (MIC) de Frecuencias Vocales, G.711 95 3.4.2 Codificación de Audio de 7 KHz dentro de 64 Kbps, G.722 97 3.4.3 Códec de Voz de Doble Velocidad para la Transmisión en Comunicaciones Multimedia a 5,3 y 6,3 Kbps, G.723.1 98 3.4.4 Codificación de Señales Vocales a 16 Kbps Utilizando Predicción Lineal con Excitación por Código de bajo Retardo, G.728 98 3.4.5 Codificación de la Voz a 8 Kbps mediante Predicción Lineal con Excitación por Código Algebraico de Estructura Conjugada, G.729 99 3.4.6 Codificación de audio MPEG-1, 2 99 3.5 ESTANDARES DE COMPARTICION DE DATOS 102 3.5.1 Protocolos de Transmisión de Datos para Conferencias Multimedia, T.120 102 3.6 ESTANDARES DE CONTROL 105 3.6.1 Señales de Control e Indicación con Sincronismo de Trama para Sistemas Audiovisuales, H.230. 105 3.6.2 Sistema para el Establecimiento de Comunicaciones entre Terminales Audiovisuales con Utilización de Canales Digitales de hasta 2 Mbps, H.242. 105 3.6.3 Protocolo de Control para Comunicación Multimedia, H.245 106 3.7 ESTANDARES DE MULTIPLEXACION 106 3.7.1 Estructura de Trama para un Canal de 64 a 1920 Kbps en Teleservicios Audiovisuales, H.221 106 3.7.5 Protocolos de Señalización de Llamada y Paquetización de Trenes de Medios para Sistemas de Comunicación Multimedia por Paquetes, H.225.0 108 4. SITUACION ACTUAL Y TENDENCIAS DE LOS SISTEMAS DE VIDEOCONFERENCIA 109 4.1 LA VIDEOCONFERENCIA EN LA FORMACION ACADEMICA 110 4.2 H.323 SOBRE REDES ATM 112 4.3 MPEG-4, LA COMPRESION EN TELEFONOS MOVILES 112 4.4 MBONE, TECNOLOGIA DE TRANSPORTE MULTICAST PARA VIDEOCONFERENCIA 114 4.5 SIP, PROTOCOLO PARA VIDEOCONFERENCIAS SOBRE IP 115 5. SOLUCIONES DE VIDEOCONFERENCIA 118 5.1 EL MERCADO DE LOS SISTEMAS DE VIDEOCONFERENCIA 118 5.2 SOLUCIONES DE HARDWARE 119 5.3 SOLUCIONES EN SOFTWARE 122 5.4 CRITERIOS PARA LA ELECCION DE UN SISTEMA DE VIDEOCONFERENCIA 124 6. CONCLUSIONES Y RECOMENDACIONES 126 BIBLIOGRAFIA 128 ANEXOS 131 LISTA DE FIGURAS Pag. Figura 1. Sistemas genéricos de videoconferencias punto a punto y multipunto 14 Figura 2. Videoconferencia de escritorio y videoconferencia de grupo 15 Figura 3. Calidad de la videoconferencia vs. Infraestructura de Red. 18 Figura 4. Funcionamiento de un sistema de videoconferencia 22 Figura 5. División de los estándares de videoconferencia según su implementación LAN o WAN. 31 Figura 6. Modelo general de un terminal de videoconferencia. 32 Figura 7. Videoconferencia basada en RDSI 33 Figura 8. Arquitectura según el estándar H.320 34 Figura 9. Canales B y D de un enlace RDSI según la recomendación H.320 36 Figura 10. Estructura de trama H.221 sobre un acceso básico RDSI 37 Figura 11. Videoconferencia basada en el estándar H.321 40 Figura 12. Arquitectura de un terminal de videoconferencia según el estándar H.321 41 Figura 13. Arquitectura de un terminal de comunicaciones según el estándar H.322 44 Figura 14. Ejemplo de una red H.322 46 Figura 15. Arquitectura de protocolos de un sistema de videoconferencia H.323 48 Figura 16. Arquitectura de un terminal de videoconferencia H.323 48 Figura 17. Componentes de una red H.323 50 Figura 18. Zona H.323 51 Figura 19. Gateway H.323/H.320 54 Figura 20. Unidad de control de multipunto H.323 57 Figura 21. Interoperatividad de la red H.323 con otros terminales 58 Figura 22. Videoconferencias descentralizadas y centralizadas según H.323 59 Figura 23. Videoconferencias descentralizadas e híbridas según H.323 60 Figura 24. Arquitectura del estándar H.310 67 Figura 25. Protocolos utilizados por los terminales bidireccionales 70 Figura 26. Paquetes TS en celdas ATM usando AA1 72 Figura 27. Arquitectura de la Recomendación H.324 74 Figura 28. Arquitectura de protocolos de un sistema H.324 76 Figura 29. Arquitectura de protocolos del estándar H.324/M 77 Figura 30. Integración de servicios en Frame Relay 80 Figura 31. Videoconferencia multiservicio en Frame Relay 81 Figura 32. Estructura de una trama Frame Relay 85 Figura 33. Proceso de transmisión de video 88 Figura 34. Niveles y perfiles de la codificación de video MPEG-2 93 Figura 35. Descomposición de una imagen en MPEG-4 114 LISTA DE TABLAS Pág. Tabla 1. Modos de comunicación establecidos según el estándar H.320 36 Tabla 2. Tipos de terminales de H.310 69 Tabla 3. Capacidades audiovisuales de los terminales bidireccionales H.310 70 Tabla 4. Soporte de los formatos de videoconferencia por H.261 y H.263 92 GLOSARIO AAL1: es la capa de adaptación de ATM tipo 1, la cual soporta una tasa de bits constante (CBR). Esta incluye la transmisión de funciones de recuperación de reloj, levantamiento Jitter, corrección de bit error, corrección de perdida de celdas y preservación de la estructura del dato. AAL 5: es la capa de adaptación de ATM tipo 5, la cual incluye función de detección de error de bit, detección de perdida de celda y preservación de la estructura del dato. BAS: señal de asignación de ancho de banda que se transmiten en una trama del estándar H.221. CIF: es un formato de imágenes de video el cual soporta una resolución de 352x288 píxeles. Es utilizado por el codec H.261. C&I signalling: señales de control e indicación en el establecimiento de una sesión de videoconferencia. DLCI: es un identificador de un circuito de enlace de datos utilizado en redes Frame Relay. FAS: son señales de alineamiento de trama en el estándar H.221 HDLC: es conocido como el protocolo de enlace de datos síncrona y es usado en los protocolos de alto nivel de comunicaciones de datos como X.25 y Frame Relay. MCU: las Unidades de control multipunto, son equipos que permiten establecer sesiones de videoconferencias entre varios usuarios. Q.931: es un protocolo de la ITU-T para el control de la señalización de llamadas de videoconferencias. QCIF: es un formato de imágenes de video el cual soporta una resolución de 176x144 píxeles. RAS: el RAS es un protocolo usado para la comunicación de un usuario un Gatekeeper. Real-Time Protocol (RTP): el RTP se encarga de estampar y ordenar los paquetes de audio y video para facilitar su llegada y las temporizaciones, las cuales tienen como fin evitar los desfases entre estos. T1: canal de transmisión de telecomunicaciones con un velocidad de 1.5Mbps. UDP: Es un protocolo orientado hacia la no conexión, los que significa que no atiende la retransmisión de datagramas (a diferencia de TCP, el cual está orientado hacia la conexión). UDP no es muy confiable, pero tiene propósitos especializados. V.35: tipo de interfaces de módems que operan a velocidades entre 20 Kbps y 2 Mbps. X.25: protocolo en la capa de red de amplio uso, orientado a conexión, utilizado por operadores de redes públicas, como compañías telefónicas. En este protocolo de servicio de conmutación de paquetes se definen conexiones físicas a la red y conexiones a enlaces de datos. Las redes X.25 trabajan a velocidades máximas de 64 Kbps. Ejecutan extensas comprobaciones de errores en cada nodo para no perder los datos enviados por líneas telefónicas no seguras RESUMEN Enmarcada entre los servicios de las comunicaciones multimedia, la videoconferencia es un servicio digital de telecomunicaciones multimedia para el intercambio de información audiovisual entre dos o más sitios geográficamente distantes, mediante la transmisión y recepción bidireccional simultánea de audio, video datos de los participantes. Los desarrollos que ha sufrido la videoconferencia han permitido un uso muy sencillo y una fiabilidad en las comunicaciones sobre cualquier infraestructura de red. Tal es así, que estas comunicaciones pueden desarrollarse tanto sobre RDSI como sobre redes ATM, Ethernet, Frame Relay e incluso redes móviles. Sin embargo, para poder implementar un sistema de videoconferencia en una determinada red con los requisitos mínimos que esta exige, es necesario un estudio anticipado de todos los parámetros y recomendaciones a tener en cuenta para su correcto funcionamiento. Es por ello que el tema central desarrollado en esta monografía es la investigación de la aparición, descripción, arquitectura y las características de la implementación de cada uno de los estándares y recomendaciones que han sido propuestos por organizaciones como la ITU, ATM Forum, Frame Relay Forum y la ISO, como un resultado de los esfuerzos convergentes hacia una compatibilidad de las soluciones de videoconferencia, sin importar cuál es el tipo de red y su velocidad. Es si como se estudian los estándares H.320 (videoconferencia obre RDSI), H.321 (RDSI- BA y ATM), H.322 (Redes de paquetes con QoS garantizado) H.323 (IP/Ethernet), H.324 (RTB/Celular), H.310 (ATM) y Frame Relay que nos indican la manera de cómo implementar videoconferencias con diferentes calidades sobre medios de transporte alternativos. Asimismo, se realiza un análisis del estado del arte y las tendencias, como también las soluciones en hardware y software de videoconferencia que ofrecen las empresas más representativas actualmente, como lo son POLYCOM, VTEL, VCON, TANBERG, RADVISION y CISCO. La realización de este trabajo es de mucha importancia, ya que da una base para tener presentes los requerimientos técnicos al momento de diseñar e implementar un sistema de videoconferencia. Así, la escogencia de uno u otro estándar para realizar un diseño va a determinar el nivel de calidad del video que se recibe. Por supuesto, la escogencia de una u otra alternativa depende de la calidad de servicio que demandara la aplicación del cliente. INTRODUCCION Desde el momento en el cual el hombre empezó desarrollar de medios de comunicación visual como la televisión, ha tendido a la invención de nuevas tecnologías que le proporcionen una comunicación remota basada no solo en el intercambio de voz, sino también de vídeo y aplicaciones para fortalecer dicho proceso y obviar la distancia. Es por ello que a partir de los años 70 se experimentan avances substanciales en muchas áreas claves de la transmisión de información. Un problema en el ambiente global de los negocios de hoy en día es que las comunicaciones cara a cara son una práctica muy costosa, con un alto consumo de tiempo, por lo que frecuentemente se omite. Se hace uso entonces de medios como el teléfono, el fax o el módem para satisfacer las necesidades comunicación como la transferencia de información y documentación corporativa. Así, en medio de estas limitaciones, la videoconferencia ofrece hoy en día una solución accesible a esta necesidad de comunicación, con sistemas que permiten transmitir y recibir información visual y sonora entre puntos o zonas distantes, evitando así los gastos y la pérdida de tiempo, que implican el traslado físico de la persona, todo esto a costos cada vez más bajos y con señales de mejor calidad. Estas ventajas hacen de la videoconferencia uno de los segmentos de mayor crecimiento en el área de las telecomunicaciones. 1 Por lo anterior, el objetivo de este trabajo es presentar al lector una investigación profunda a cerca de los sistemas de videoconferencia, describiendo los estándares que representan cada uno de los tipos de redes, así como los requerimientos mínimos que establecen cada uno de ellos para la implementación de una videoconferencia. Asimismo se muestra un análisis de la situación actual y las tendencias de mercado de los sistemas de videoconferencia representadas en las soluciones más representativas ofrecidas por los fabricantes de equipos de videoconferencia. Al diseñar e implementar un sistema de videoconferencia es muy importante tener como referencia cada uno de los estándares propuestos por la ITU para su transmisión. Dichos estándares cubren un amplio rango de necesidades permitiendo establecer videoconferencias de alta calidad, sobre ISDN ó ATM (estándares H.320 y H.321) ó videoconferencia en las que no es necesario cumplir con altas exigencias de calidad como es el caso de las redes Ethernet/IP (estándar H.323), redes celulares móviles (estándar H.324) y redes Frame Relay. Así mismo, también es posible establecer una videoconferencia de muy alta calidad (estándar H.310) para aplicaciones muy especiales. Las temáticas contenidas en este documento están organizadas de la siguiente manera: en el capítulo uno se relatan los antecedentes históricos como son la historia del desarrollo de los codecs, la aparición de cada uno de los estándares internacionales publicados por la Unión Internacional de Telecomunicaciones (ITU) y una breve cronología de los hechos mas representativos que se han dado a lo largo del desarrollo de la videoconferencia. 2 En el capítulo dos se tratan muestran las generalidades de las videoconferencias; la definición, sus tipos, los principales elementos que se deben de tomar en cuenta para un sistema básico de videoconferencia, así como el funcionamiento de éstos. También se mencionan sus aplicaciones y las ventajas y desventajas. Los organismos encargados de la publicación de estándares, las especificaciones de interoperabilidad entre los diferentes sistemas de videoconferencia (RDSI, ATM, Ethernet/IP, Frame Relay y Redes móviles), algunos tipos de codificación y estándares de multiplexación y control en el área de videoconferencia se describen en el capítulo tres. En el capitulo cuatro se muestran la situación actual y las tendencias de los sistemas de videoconferencia como son la aplicación en la formaron académica y en la medicina y el método de compresión MPEG-4 para la telefonía celular. Por ultimo, el capitulo cinco se dan algunos ejemplos de las soluciones mas representativas en sistemas de videoconferencia tanto de sala como de escritorio que ofrecen las compañías mas reconocidas del mercado como: Picturetel, Polycom, RADVision, Vtel, VCON, Zydacron e Intel entre otras; que comercializan diversidad de aplicaciones tanto de software como de hardware para hacer posible la comunicación interactiva y en tiempo real haciendo uso de la más alta tecnología. 3 1. ANTECEDENTES DE VIDEOCONFERENCIA Los antecedentes de la videoconferencia en lo que respecta a la historia de esta tecnología se encuentran marcados por el desarrollo de la industria de las comunicaciones así como del avance de los sistemas electrónicos. En este capitulo se realiza una descripción del desarrollo de la videoconferencia a través de los avances mas relevantes ocurridos. 1.1 HISTORIA DE LA VIDEOCONFERENCIA La historia de la videoconferencia se puede remontar a muchos años atrás con la aparición de la audioteleconferencia. Pero, el inicio del desarrollo de la tecnología como tal, ocurre ya hacia el año 1964, cuando AT&T presentó en la feria del comercio mundial de Nueva York un prototipo de videoteléfono denominado "Picture Phone". Sin embargo, la tecnología de transmisión así como la integración de los componentes electrónicos existentes para la época impidieron la factibilidad comercial de este producto, ya que requería de líneas de comunicación bastante costosas para transmitir video en movimiento (exigía líneas con una capacidad de transmisión de 90Mbps). El único método posible para transmitir la señal de video del teléfono a través de largas distancias fue el satélite. 4 En los años 70's las líneas telefónicas experimentan un proceso de transición analógico digital, la industria de las computadoras también avanzó enormemente en el poder y velocidad de procesamiento de datos y se descubrieron y mejoraron significativamente los métodos de muestreo y conversión de señales analógicas (como las de audio y vídeo) en bits digitales1. Dado que la representación digital de una señal analógica requiere de mayor capacidad de almacenamiento y transmisión (mayor ancho de banda) que la original se empezaron a desarrollar métodos de compresión que redujeron el ancho de banda utilizado. Así entonces, surgió la necesidad de desarrollar compresiones de datos digitales confiables; el uso de técnicas de compresión para conseguir la más baja velocidad posible que proporcione una aceptable calidad de imagen en una aplicación dada. Y los datos de video digital son un candidato natural para comprimir, debido a que existen muchas redundancias inherentes en la señal analógica original; redundancias que resultan de las especificaciones originales para la transmisión de video y las cuales fueron requeridas para que los primeros televisores pudieran recibir y desplegar apropiadamente la imagen. Una buena porción de la señal de video analógica esta dedicada a la sincronización y visualización del monitor de televisión. Ciertos métodos de compresión de datos fueron descubiertos, los cuales eliminaron enteramente esta porción redundante de información en la señal, con lo cual se obtuvo una reducción de la cantidad de datos utilizados de un 50% 1 HERRAN, Eliana y ENSUNCHO, David. Diseño de un sistema de videoconferencia para la CUTB. Cartagena de Indias. 2001. Pág.4. 5 aproximadamente, o sea, 45 Mbps, una razón de compresión de 2:1. Dada la velocidad de las líneas telefónicas, estaba claro que era necesario el comprimir aún más el video digital para llegar a hacer uso de un canal T1 (con una razón de compresión de 60:1), el cual se requería para poder iniciar el mercado. Entonces a principios de los 80's algunos métodos de compresión hicieron su debut, estos métodos fueron más allá de la eliminación de la temporalización y sincronización de la señal, realizando un análisis del contenido de la imagen para eliminar redundancias. Esta nueva generación de video codecs (codificador/decodificador), no sólo aprovechó las ventajas de las redundancias, si no también del sistema de la visión humana. El video presentado en Norteamérica es de 30 cuadros ó imágenes por segundo, sin embargo, esto excede los requerimientos del sistema visual humano para percibir movimiento. La mayoría de las películas cinematográficas muestran una secuencia de 24 cuadros por segundo. La percepción del movimiento continuo puede ser obtenida entre 15 y 20 cuadros por segundo, por tanto, una reducción de 30 cuadros a 15 cuadros por segundo por sí misma logra un porcentaje de compresión del 50 %. Una relación de 4:1 se logra obtener de esta manera, pero todavía no se alcanza el objetivo de lograr una razón de compresión de 60:1. Los codecs de principios de los 80's utilizaron una tecnología conocida como codificación de la Transformada Discreta del Coseno (abreviado DCT por su nombre en inglés). Usando esta tecnología las imágenes de video pueden ser analizadas para encontrar redundancia espacial y temporal. La redundancia espacial es aquella que puede ser encontrada dentro de un 6 cuadro sencillo de video; áreas de la imagen que se parecen bastante que pueden ser representadas con una misma secuencia. La redundancia temporal es aquella que puede ser encontrada de un cuadro de la imagen a otro; áreas de la imagen que no cambian en cuadros sucesivos. Combinando todos los métodos mencionados anteriormente, se logró obtener una razón de compresión de 60:12. Sin embargo, el utilizar compresiones tan grandes tiene como desventaja la degradación en la calidad y en la definición de la imagen. Una imagen de buena calidad puede obtenerse utilizando razones de compresión de 235:1 (384 Kbps) ó mayores. Los costos recurrentes de la videoconferencia dependen del tipo de transmisión y del ancho de banda requerido. En videoconferencia el mínimo ancho de banda para calidad aceptable es de 384 Kbps (equivalente a seis canales de un T1 o tres conexiones RDSI Básicas) hasta 1.5 Mbps (Un T1 completo). Entre mayor sea el ancho de banda mejor será la calidad del video y del audio, sin embargo, los costos de utilización aumentan con el ancho de banda requerido. Hoy en día el ancho de banda de los medios de transmisión necesarios para la canalización de gran cantidad de datos en tiempo real, se ha incrementado con las tecnologías de cable coaxial, par trenzado y fibra óptica, entre otras. También mediante la utilización de satélites es posible cubrir áreas geográficas de la dimensión de uno o varios países juntos. 2 HERRAN, Eliana y ENSUNCHO, David. Diseño de un sistema de videoconferencia para la CUTB. Cartagena de Indias. 2001. Pág. 6. 7 1.2 APARICION DE LOS ESTANDARES La aparición de los estándares de los sistemas de videoconferencia se dio a partir del problema que existía de incompatibilidad entre diferentes fabricantes y sistemas, sobre todo en los métodos de codificación y decodificación requeridos para la compresión del vídeo y del audio, así como en la necesidad que surgió luego de que habían aparecido otros tipos de redes de transmisión como Ethernet/IP, ATM, Frame Relay y redes móviles. En el año 1984, la CCITT (ahora la ITU-T) realizó el primer intento para establecer una normativa referente a sistemas de videoconferencia que permitieran la interconexión de éstos equipos a nivel mundial, basándose en la primera generación de codecs. De allí surgió la recomendación H.120, la cual permitía la transmisión de video de muy baja calidad a un ancho de banda relativamente alto (2048 Mbps) para los parámetros actuales, aunque solo aplicable a sistemas de transmisión con norma europea (CEPT). En 1988, el CCITT anunció su intención de establecer una serie de recomendaciones que podrían ser aplicadas a velocidades de entre 56 Kbps y 2048 Mbps, las cuales permitieran la conexión de sistemas tanto de norma americana como de norma europea. En 1990 en Ginebra, Suiza, el grupo de estudio XV de expertos sobre codificación para telefonía visual del CCITT acordó la adopción de varias recomendaciones que finalmente permiten la relativa compatibilidad y conectividad entre sistemas de videoconferencia a nivel mundial, entre ellas la versión final de la recomendación H.261. 8 En la videoconferencia la estandarización es un aspecto indispensable, ya que no sólo garantiza la interoperatividad de codecs de fabricantes diferentes, sino que también incentivará la fabricación masiva, la estimulación de la competencia y una mayor accesibilidad a estos productos. A esto se le suma el hecho de que el grupo de especialistas del CCITT fue cuidadoso al elaborar la estandarización, ya que en la misma sólo estandarizaron aquéllos aspectos que consideraron necesarios, dejando libres otros aspectos para la innovación, lográndose de esta manera diferenciar los productos de videoconferencia que ofrecen los diversos fabricantes. El inicio de la estandarización para las redes de transporte empezó hacia el año de 1990, cuando la unión internacional de telecomunicaciones (ITU-T) publico el estándar H.320, el cual establece los conceptos básicos para el intercambio de audio y vídeo en un sistema de videoconferencia punto a punto o multipunto sobre redes que utilizan un canal con ancho de banda garantizado como RDSI (Red Digital de Servicios Integrados). Luego, durante la década de los 90’s fueron apareciendo otros estándares, abarcando así un amplio espectro de necesidades permitiendo el establecimiento de videoconferencia de alta calidad, sobre ATM [estándar H.321 (1995)] ó videoconferencia en las que no es necesario cumplir con altas exigencias de calidad como es el caso de los estándares H.323 (1996), H.324 (1996) y H.324/M (1998). También es posible establecer una videoconferencia de muy alta calidad [estándar H.310 (1995)] para aplicaciones muy especiales. Por supuesto, la escogencia de una u otra depende de la calidad de servicio deseado por el grupo de usuarios. 9 1.3 CRONOLOGIA DE LA VIDEOCONFERENCIA Los siguientes, representan los hechos más importantes que sucedieron cronológicamente y que afectaron de una u otra manera el desarrollo de los sistemas de videoconferencia hasta el año del 20023. 1964: AT&T introduce el Picturephone en la feria mundial celebrada en New York. 1976 Mar: Danny Cohen inventa el protocolo de voz para redes (NVP). 1981 Jul: Randy Cole inventa el PVP (Packet Video Protocol). 1990: El CCITT publica el estándar de codificación de video H.261 (p x 64). 1990 Dic: El CCITT publica la recomendación H.320 para conferencias sobre ISDN. 1991 Sep: DARTnet realiza la primera conferencia de audio y video utilizando el hardware del codec H.261. 1992 Jul: Aparece el lanzamiento de audio/video MBone (Multicast Backbone). 1992 Dic: Henning Schulzrinne desarrolla el protocolo de transporte en tiempo real (RTP). 1996 Mar: ITU-T publica el estándar de codificación de video H.263 (px8) para comunicaciones a velocidades bajas. 1996 May: La ITU-T publica el estándar H.324 para videoconferencias sobre POTS. 1996 Jul: ITU-T publica el estándar T.120 para la transmisión de datos en una videoconferencia. 1996 Ago: Aparece el Microsoft NetMeeting v1.0 con video. 1996 Oct: La ITU-T publica el estándar H.323 v1. 1997 Sep: La IETF desarrolla el Resource ReSerVation Protocol (RSVP) v1. 3 A history of video conferencing (VC) technology. http:// myhome.hanafos.com/~soonjp/vidconf.html 10 1998 Abr: Aparece el CU-SeeMe v1.0 para Windows y Macintosh (con video a color). 1998 Oct: ISO/IEC publica el estándar MPEG-4 v1. 1999 Feb: La IETF propone el estándar SIP (Session Initiation Protocol). 2000 Oct: Samsung lanza el primer teléfono celular 3G con una codificación MPEG-4. 2000 Nov: La ITU-T publica la versión 4 del estándar H.323. 2002 Dic: JVT completa el trabajo técnico que lleva al ITU-T H.264. 11 2. GENERALIDADES DE VIDEOCONFERENCIA En este capitulo se define el concepto de videoconferencia, se muestra una división de los sistemas de videoconferencia según diferentes parámetros como los son: el tipo de sitios enlazados, el tipo de calidad, el tipo de resolución, el tipo de tecnología y el tipo de equipos. Asimismo se presenta una breve descripción de los elementos básicos de un sistema de videoconferencia así como su proceso de funcionamiento, en donde intervienen los procesos de captura, digitalización, compresión, multiplexación y transmisión del audio y del video. Por último, se tratan las aplicaciones como también las ventajas y las desventajas que trae consigo la implementación de un sistema de videoconferencia. 2.1 QUE ES VIDEOCONFERENCIA La videoconferencia es un sistema de comunicación bidireccional diseñado para llevar a cabo encuentros a distancia, la cual, nos permite la interacción visual y auditiva con personas de cualquier parte del mundo, siempre y cuando los sitios a distancia tengan equipos compatibles y un enlace de transmisión entre ellos. Con la videoconferencia podemos compartir información, planear estrategias de negocios, intercambiar puntos de vista, mostrar y ver todo tipo de documentos, dibujos, gráficas, acetatos, fotografías, imágenes de computadora y videos, en el mismo momento, sin tener que trasladarse al 12 lugar donde se encuentra la otra persona. La videoconferencia es un servicio innovador que permite conocer gente, nuevos socios, estudiantes, profesores y doctores, además de miles de usuarios con diferentes niveles de educación y clases sociales. Sin embargo, como sucede con todas las tecnologías, los términos que se emplean no se encuentran perfectamente definidos. Por ejemplo, la palabra "teleconferencia" esta formada por el prefijo "tele" que significa distancia, y la palabra "conferencia" que se refiere a encuentro, de tal manera que combinadas establecen un encuentro a distancia. Sin embargo, la diferencia entre videoconferencia y teleconferencia radica en que esta última se refiere específicamente a las conferencias o llamadas telefónicas, y la palabra "videoconferencia" es usada para describir la comunicación en dos sentidos de audio y video. Asimismo, el empleo del término "audioconferencia" es usado para hacer mención de una conferencia realizada mediante señales de audio. También existen algunos términos que pueden crear confusión con respecto a videoconferencia, como puede ser el término "televisión interactiva"; esté término ha sido empleado para describir la interacción entre una persona y un programa educativo previamente grabado en un disco compacto pero no requiere de la transmisión de video4. 4 HERRAN, Eliana y ENSUNCHO, David. Diseño de un sistema de videoconferencia para la CUTB. Cartagena de Indias. 2001. Pág.10. 13 2.2 TIPOS DE VIDEOCONFERENCIA La clasificación de los sistemas de videoconferencia se puede realizar en base a cuatro criterios: • Según el número de sitios enlazados: • Videoconferencia punto a punto: Como se muestra en la Figura 1, este tipo de videoconferencia se da cuando se da la comunicación entre solo dos lugares distantes. • Videoconferencia multipunto: Es cuando se establece comunicación entre tres o más lugares distintos y las personas pueden conversar realizando una reunión virtual. Como se observa en la Figura 1, este tipo de videoconferencia requiere de una unidad MCU (multipoint control unit), la cual se encarga de establecer la comunicación entre los distintos puntos. Figura 1. Sistemas genéricos de videoconferencias punto a punto y multipunto. 14 • Según el tipo de equipos: • Sistemas de escritorio (desktop systems): Estos sistemas de videoconferencias fueron introducidos en 1992 para compartir aplicaciones en un PC. Suelen manejar velocidades de 64 y 128 Kbps, utilizando un circuito dedicado de tecnología ISDN. Operan a través del Internet o una unidad multipunto y establece la interacción a través de una cámara de videos, micrófono y tarjeta de sonido integrados a la computadora personal. Este tipo de calidad es ideal para grupos pequeños, por ejemplo, pequeñas reuniones de hasta 4 personas o en ambientes en los cuales no se exige alta calidad, ya que la utilización compartida del ancho de banda para las señales audio y video con otros tipos de datos hacen que hallan pérdidas sensible en la calidad de la videoconferencia, causando problemas como los retardos en el sonido y el video. Un ejemplo del hardware necesario para este tipo de videoconferencia se presenta en la Figura 2. Figura 2. Videoconferencia de escritorio y videoconferencia de grupo. • Sistemas de salón: Consiste en una sala de reuniones equipada con un sistema 15 audiovisual orientado hacia la mesa de trabajo. A través de su conexión con la unidad multipunto o un enlace ISDN, son instalados en aulas o salones que permiten un auditorio mayor (Ver Figura 2). Las salas suelen disponer de equipo accesorio para mostrar y transmitir documentos, gráficos y fotografías. Esta cuenta con comunicación a velocidades desde 64 Kbps hasta 2.048 Mbps (E1). • Según la tecnología que se utilice: • ATM: Permite la mejor calidad en videoconferencias, igual a la calidad de la televisión digital. • H.323: Sistema de videoconferencia el cual utiliza las redes de paquetes que no garantizan el ancho de banda (Ethernet). Este sistema esta pensado para ser utilizado por usuarios finales, como por ejemplo, el sistema que utiliza el popular software Windows NetMeeting. • RDSI: No utiliza Internet para realizar la videoconferencia, sino que utiliza la Red Digital de Servicios Integrados, RDSI. • Líneas dedicadas: Las líneas dedicadas representan una opción que ofrecen las compañías de telecomunicaciones a las empresas que tienen grandes necesidades de transporte de voz, datos y video. Este servicio varia según la capacidad de transmisión; desde un canal E1 (2,048Mbps) hasta un canal E4 el cual posee una capacidad de transmisión de 140Mbps. Estas líneas trabajan a altas velocidades y son muy eficaces para la transmisión de videoconferencias, pero se alquilan por medio de circuitos especiales y tienen un costo de mantenimiento mensual relativamente alto. Los costos de 16 comunicación se calculan en función de la distancia y tiempo de comunicación. En nuestro país podemos encontrar precios de E1’s desde 1000 dólares debido a la instalación de cables submarinos y a la entrada en operación de nuevos satélites sobre la región. • Frame Relay: Con la implementación de una videoconferencia sobre Frame Relay se permite que diferentes aplicaciones como voz, datos y video compartan una sola línea de transmisión, eliminando así la necesidad de utilizar varias líneas arrendadas. • Redes móviles: El nuevo estándar H.263, junto con las recomendaciones incluidas en la familia del estándar H.324, permitirá transmitir vídeo, con calidad muy limitada, a velocidades de hasta 9,6 Kbps, por lo que se podría emplear en las redes GSM actuales. • Según la resolución de video alcanzada. • Videoconferencia personal de calidad baja: ideal para reuniones informales de 2 personas, se transmite en un rango de velocidades entre 64 y 128 Kbps, sobre telefonía. • Videoconferencia de calidad intermedia: Para reuniones en torno a una mesa (hasta 15 personas), en la cual se transmite en un rango de velocidades de entre 128 y 384 Kbps. La tecnología usada puede ser RDSI o Ethernet. • Videoconferencia de calidad mejorada: Es necesaria para grandes reuniones, opera en el rango de velocidades entre los 384 Kbps y los 2 Mbps bajo redes ATM o RDSI. • Videoconferencia de alta calidad: Opera en el rango de velocidad entre los 8 Mbps y los 16 Mbps. Requiere trabajar sobre tecnología de redes ATM de estándar H.310. Es ideal para aplicaciones de telemedicina y educación a distancia. 17 La figura 3 muestra cada tipo de videoconferencia según la calidad y la velocidad de transmisión para cada uno de los estándares de videoconferencia. Figura 3. Calidad de la videoconferencia vs. Infraestructura de Red. Fuente: ARAUJO, Delfín. Tendencias en los estándares de transmisión para videoconferencia. Venezuela. http:://neutron.ing.ucv.ve/revista-e/No3/Araujo.html 2.3 ELEMENTOS BASICOS DE UN SISTEMA DE VIDEOCONFERENCIA Un sistema de videoconferencia requiere de un equipo en el sitio emisor y uno por cada sede receptora. Existen diferentes fabricantes y proveedores de equipos por lo que algunos componentes pueden variar. Pero, en forma general un sistema de videoconferencia se puede dividir en5: • La red de comunicaciones. Es el medio por el cual viaja la información de audio, video y datos hacia los demás participantes de una videoconferencia. La función de la red de comunicaciones es establecer los protocolos para que los datos transportados desde el 5 HERRAN, Eliana y ENSUNCHO, David. Diseño de un sistema de videoconferencia para la CUTB. Cartagena de Indias. 2001. P.13 18 equipo transmisor hasta el equipo receptor y viceversa, lleguen en la mejor forma; sin retardos y sin errores. Para que se pueda dar la comunicación a través de una determinada red de comunicaciones, esta debe tener unas características y capacidades que la harán soportar la transmisión de información de una videoconferencia. Esas características y capacidades que debe haber en la conexión son: ser digital, bidireccional y de alta velocidad. Existen distintos tipos redes de comunicaciones por las cuales se puede optar para la transmisión de una videoconferencia. Sin embargo, la escogencia de una u otra alternativa depende de los requerimientos en calidad de servicio que el usuario desea. Se pueden establecer videoconferencias de alta calidad, sobre ISDN ó ATM ó videoconferencia en las que no es necesario cumplir con altas exigencias de calidad como es el caso de las redes IP, redes de telefonía básica (RTB) y redes Frame Relay. Así mismo, también es posible establecer una videoconferencia de muy alta calidad para aplicaciones muy especiales sobre una red ATM mediante la compresión MPEG-2. • Lugar o sala de la videoconferencia. La sala de videoconferencia es el lugar en el cual se aloja(n) la(s) persona(s) participante(s). En esta también se encuentran los equipos de control de audio, de video, y los periféricos, los cuales permitirán la captura, visualización de las imágenes y los sonidos que habrán de transmitirse. La sala de videoconferencia se puede subdividirse en cuatro componentes esenciales: El sistema de video, el sistema de audio, el sistema de control y el ambiente físico. 19 El requerimiento básico del sistema de video es el entregar vídeo proveniente de las cámaras hacia el CODEC, y desde el CODEC hacia el(los) monitor(es). Las fuentes de vídeo incluyen cámaras, proyectores en vídeo de diapositivas, salidas de videograbadoras para reproducción, las salidas de vídeo del CODEC, etc. El destino del vídeo incluye: monitores de vídeo, entradas de videograbadoras para grabación, entradas del CODEC para transmisión, impresoras de vídeo, etc. En cuanto al sistema de audio, su propósito fundamental es permitir a los participantes de ambos extremos de la conferencia escuchar y el ser escuchados. Generalmente, los componentes principales del sistema de audio están formados por: Uno o dos micrófonos, un mezclador, el cancelador de eco y amplificadores. El mezclador de audio combina todas las fuentes de audio provenientes de todos los micrófonos de la sala en una sola señal de audio. Luego, el cancelador de eco remueve las señales que representen eco potencial de la línea de transmisión. Así, los amplificadores reciben el audio después de que fue procesado por el cancelador de eco y lo promueve hacia la salida a través de los altavoces. Los altavoces o monitores de audio es el punto final para las señales de audio dentro de la sala. Un sistema de control de la sala de videoconferencia tiene dos componentes claves: el panel de control (situado sobre la mesa de conferencias, o con un menú en pantalla) y el sistema de control central. El panel de control tiene como función operar el movimiento de las cámaras tanto en el sitio de origen como en el remoto, controla el volumen de audio, la entrada de llamadas telefónicas, el almacenamiento de imágenes, diapositivas, gráficas, 20 fotografías. Además, permite la utilización de software, controla la proyección de la videocasetera y de los protocolos de comunicaciones. El sistema de control central actúa cuando los botones del panel de control son oprimidos por los participantes de la conferencia. En cuanto respecta al ambiente físico, los factores más importantes a considerar dentro de una sala de videoconferencia son: la iluminación, la acústica y el mobiliario. • El CODEC. Los codecs representan el corazón de cualquier sistema de videoconferencia; son en esencia, tarjetas potentes y de propósito especial que codifican y decodifican grandes cantidades de datos de imágenes de video para transmisión en condiciones muy cercanas al tiempo real sobre un pequeño ancho de banda. Estos poseen un microprocesador con suficiente memoria para transmitir y almacenar texto, datos e imágenes (diapositivas, documentos, fotografías). 2.4 FUNCIONAMIENTO DE UN SISTEMA DE VIDEOCONFERENCIA Todos los sistemas de videoconferencia operan sobre los mismos principios. Sus características principales son el procesado de señal y la transmisión digital a través de las redes de transmisión de datos. El proceso del traspaso de imagen, sonidos y archivos en una videoconferencia se desarrolla así: • Con la cámara y el micrófono se capta lo que sucede en el punto local y el monitor 21 permite ver lo que sucede en los otros puntos remotos. Luego, cada uno de estos conjuntos (cámara, micrófono, monitor) se conecta a los otros puntos mediante algún dispositivo que maneje un protocolo compatible que permita realizar la conferencia. • Como se puede observar en la figura 4, el CODEC toma las señales analógicas de audio y video provenientes del micrófono y la cámara para convertirlas a un código de computadora. A esto se le conoce como digitalizar. La información es reducida en pequeños paquetes de datos binarios (0 o 1). Luego, las comprime (en el sistema actual, a un nivel de 1:800), y las multiplexa para su transmisión en forma de una cadena digital de datos a una sala de videoconferencia remota a través de las líneas de la red de comunicaciones. Figura 4. Funcionamiento de un sistema de videoconferencia Fuente: http://ict.udlap.mx/people/raulms/tesis/tesis.htm • Estando las señales comprimidas se pueden transmitir sobre cualquier circuito tanto 22 terrestre (cable o fibra óptica) como por satélite o microondas. Las velocidades posibles de transmisión van en incrementos de 64 Kbps hasta los 2 Mbps (en los equipos comerciales más comunes). El sistema básico de videoconferencia emplea dos circuitos de 64 Kbps. Si se aumenta el número de circuitos aumenta la calidad de transmisión. • Los datos viajan comprimidos a través del circuito de comunicación y se descomprimen en el destino. La calidad de las imágenes que se percibe en el destino está en función del nivel de compresión y de la capacidad de transmisión de datos. Si utilizamos dos canales de 64 Kbps obtendremos poca resolución y un desajuste entre imagen y sonido. Si aumentamos la capacidad de transmisión de datos, conseguiremos mayor calidad de imagen y con total sincronización entre imagen y sonido. • El CODEC del destino recibe las cadenas de datos digitales provenientes del punto remoto, separa o demultiplexa el audio, el video y los datos de información del usuario, y decodifica la información de tal manera que puede ser vista, escuchada o dirigida hacia un dispositivo periférico de salida situado en la sala de conferencia local. 2.5 APLICACIONES DE LA VIDEOCONFERENCIA Dada la baja sustancial registrada en los equipos de videoconferencia, actualmente la mayoría de compañías innovadoras del primer mundo utilizan las videoconferencias para: Administración de clientes en agencias de publicidad, servicio al cliente, educación a 23 distancia, desarrollo de ingeniería, reunión de ejecutivos, estudios financieros, grupos de trabajo divididos, coordinación de proyectos entre compañías, declaraciones ante la corte, control de la manufactura, telemedicina, televigilancia, telecontrol, gestión del sistema de información administrativa, gestión y apoyo de compra / ventas, Contratación / entrevistas, supervisión, Adiestramiento / capacitación, comunicarse con sus proveedores y socios, manejar la unión o consolidación de empresas, obtener soporte inmediato en productos o servicios extranjeros y viajes internacionales en medio de crisis, etc. En los grupos de trabajo divididos: El Departamento de la Defensa de Estados Unidos y la industria Aerospacial han manejado el desarrollo de sistemas de armas muy complejas involucrando cooperaciones múltiples con agencias del Departamento de defensa a través de un sistema de seguridad de videoconferencia. La corporación Boing estima haber ahorrado 30 días de costo en el desarrollo del 757 utilizando un sistema de videoconferencia entre el departamento de ingeniería y los grupos de producción6. Educación y Capacitación: El año pasado la Universidad Tecnológica de Bolívar participo de videoconferencias como el seminario internacional sobre seguridad eléctrica y norma Retie que organizo la Universidad del Norte, la cual estuvo dirigida a la comunidad en general y en especial a estudiantes y egresados de los programas de ingeniería mecánica, eléctrica y electrónica. 2.6 VENTAJAS Y DESVENTAJAS DE LAS VIDEOCONFERENCIAS 6 HERRAN, Eliana y ENSUNCHO, David. Diseño de un sistema de videoconferencia para la CUTB. Cartagena de Indias. 2001. P.20 24 • Ventajas El beneficio que representa un sistema de videoconferencia consiste en reunir personas situadas en diferentes lugares geográficos para que puedan compartir ideas, conocimientos, información, para solucionar problemas y para planear estrategias de negocios utilizando técnicas audiovisuales sin las inconveniencias asociadas de viajar, gastar dinero y perder tiempo, ha capturado la imaginación de las personas de negocios, líderes gubernamentales, profesionales de la medicina y educadores7. El realizar una videoconferencia le proporciona a una compañía beneficios en muchos sentidos: ahorro en costos de viajes y sus derivados como, hoteles, comidas y desplazamientos, ahorro en productividad por motivos de los viajes y ganancias estratégicas como por ejemplo la prestación de un mejor servicio al cliente. En las entidades educativas hay ventajas tanto para los estudiantes como para las instituciones educativas. Para los primeros, se ofrecerían videoconferencias que se realicen en cualquier parte del mundo, lo que traería niveles muy altos de conocimientos. Por su parte, las instituciones educativas adquirirían un valor agregado importantísimo, como es el renombre e importancia que le proporcionaría el hecho de contar con servicios de la más alta tecnología y que le ubicarían al mismo nivel de institutos superiores. • Desventajas 7 HERRAN, Eliana y ENSUNCHO, David. Diseño de un sistema de videoconferencia para la CUTB. Cartagena de Indias. 2001. P.19 25 Una de las desventajas principales es que los equipos dedicados para videoconferencia son costosos, además de la renta de las líneas necesarias para transmitir las videoconferencias, espacios adecuados para el equipo, servicios de mantenimiento e infraestructura para contar con estos medios, además de medios de comunicación con altos anchos de banda. Otra desventaja que vale la pena argumentar tiene que ver con la existencia aun de incompatibilidad entre algunos sistemas debido a que las compañías producen los equipos con sus propios métodos de compresión y codificación de imágenes. 26 3. ESTANDARES Los estándares propuestos por la ITU-T para la transmisión de videoconferencia abarcan un amplio espectro de necesidades permitiendo el establecimiento de videoconferencia de alta calidad, sobre ISDN ó ATM (estándares H.320 y H.321) ó videoconferencia en las que no es necesario cumplir con altas exigencias de calidad como es el caso de los estándares H.323, H.324, H.324 /M y Frame Relay. Así mismo también es posible establecer una videoconferencia de muy alta calidad (H.310) para aplicaciones muy especiales. En este capitulo también se especifican muy brevemente los estándares de codificación de audio, video y datos, entre otros, los cuales se basan las anteriores normas para establecer parámetros comunes de configuración para cada una de las tecnologías de redes. 3.1 ORGANISMOS INTERNACIONALES ENCARGADOS DE LA ESTANDARIZACION DE LA VIDEOCONFERENCIA En el mundo existen una serie de organismos y grupos de estandarización que promueven el desarrollo de normas para la provisión de servicios de videoconferencia. De esta manera, ellos contribuyen a definir la orientación futura del mercado de los sistemas de videoconferencia, basándose en el conocimiento en profundidad de las necesidades de los 27 usuarios. Algunos de los organismos internacionales que promueven el desarrollo de estándares para los sistemas de videoconferencia son: ATM FORUM. Organización de ámbito mundial cuya finalidad es promover el uso de productos y servicios ATM entre la comunidad industrial y los usuarios. Fundada en 1991 con 4 miembros, actualmente agrupa a 750 compañías que representan todos los sectores de la industria de la informática y las comunicaciones, así como instituciones gubernamentales, organizaciones de investigación y usuarios. Se compone de un comité técnico mundial, tres comités de marketing para Norteamérica, Europa y África y una mesa redonda que reúne a los usuarios finales de ATM. ITU - International Telecommunication Union. Fundada en París en 1865 como la Unión Internacional de Telégrafos (International Telegraph Union), la Unión Internacional de Telecomunicaciones tomó su nombre actual en 1934 y se convirtió en un organismo especializado de las Naciones Unidas en 1947. La ITU es una organización intergubernamental en la que cooperan los sectores público y privado para el desarrollo de las telecomunicaciones. El grupo de estudio 16 de la ITU-T es el responsable de las recomendaciones del ITU-T en la definición de servicio de multimedia y sistemas multimedia, incluyendo los terminales asociados, los módems, los protocolos y el procesamiento de la señal. El grupo de estudio 16 también lidera el grupo de estudio de ITU-T para los servicios multimedia, los sistemas y las terminales. 28 El estudio Grupo 16 se encuentra actualmente trabajando junto con el comité MPEG de ISO/IEC para definir la próxima generación de tecnologías de codificación de video. FRAME RELAY FORUM. Se trata de una asociación de proveedores, carriers, usuarios y consultores en desarrollo e implantación de redes de este tipo. La publicación (www.frforum.com) ofrece una guía básica para creación y manejo de redes Frame Relay, un foro de discusión, anuncios de reuniones y actividades de capacitación, casos de implementación, consultoría y mercado de productos. También se pueden bajar tutoriales, white papers y otros documentos, así como un glosario de términos técnicos (en inglés) y una sección de preguntas frecuentes. MPEG - Moving Picture Experts Group. MPEG es un grupo de trabajo conjunto de ISO e IEC (ISO/IEC JTC1 SC29/WG11), que tiene como principal cometido la creación de estándares internacionales para el tratamiento (compresión, almacenamiento, distribución) de información audiovisual. Dos de las normas para almacenamiento y distribución de vídeo y audio en formato digital son: MPEG-1: usada extensivamente para almacenar vídeo/audio en CD (CD-ROM, Vídeo CD, CD-I) y para su distribución por Internet (WWW). MPEG-2: aceptado por todos los fabricantes y productores de contenidos como el estándar para televisión digital. 29 El trabajo actual de MPEG se centra en la culminación de de los estándares: MPEG-4, para representación de contenidos multimedia, con orientación a objetos, y MPEG-7, para descripción de información multimedia. IMTC - International Multimedia Teleconferencing Consortium. El IMTC es una corporación sin ánimo de lucro compuesta por más de 145 miembros y afiliados de Europa, Norte América y Asia. La misión del IMTC es promover, fomentar y facilitar el desarrollo de soluciones de videoconferencia multimedia compatibles basadas en estándares abiertos internacionales. En este sentido, el IMTC se encuentra actualmente centrado en los estándares para videoconferencia multimedia adoptados por el ITU, concretamente las Rec. ITU-T T.120, H.320, H.323 y H.324. Entre los miembros del IMTC figuran las principales operadoras del mundo y las empresas de mayor peso en el sector informático y de las telecomunicaciones como Intel, Microsoft, Apple, Sun, Motorola, Texas Instruments, Alcatel, Siemens, Cisco, Ascend, entre otras. El IMTC mantiene ocho grupos de actividad: conferencias de datos (T.120), interoperabilidad y servicios de red, conferencias en redes de paquetes (H.323), conferencias en redes conmutadas (H.320, H.324), Forum de voz sobre IP (VoIP), calidad de servicio, usuarios y aplicaciones, y marketing. 30 3.2 ESTANDARES DE VIDEOCONFERENCIA El desarrollo de este capitulo, parte central de muestra investigación, inicia con la descripción del estándar H.320, el cual fue el primer estándar de comunicaciones multimedia y además sirvió de base para el surgimiento de los demás. En la figura 5 se ilustra como se encuentran divididos cada uno de los estándares de videoconferencia de acuerdo a su implementación en redes LANs o WANs. Figura 5. Estándares de videoconferencia según su implementación LAN o WAN La base para el estudio de cada uno de los parámetros que conforman un sistema de videoconferencia se encuentran definidos en el modelo general para un terminal de videoconferencia propuesto por el grupo de estudio 16 de la ITU. Dicho modelo8 se 8 INTERNATIONAL TELECOMMUNICATION UNION. Multimedia comunications. Formato: pdf. http://www.itu.int/itudoc/gs/promo/tsb/79335.pdf 31 muestra en la figura 6. Figura 6. Modelo general de un terminal de videoconferencia. 3.1.1 Sistemas y Equipos Terminales Videotelefónicos de Banda Estrecha, H.320. El estándar H.320 (Narrow-Band ISDN Visual Telephone System and terminal Equipment) fue el primer estándar publicado por la ITU-T. Adoptado en Julio de 1997, este describe las normas mínimas para la implementación de videoconferencia punto a punto y multipunto en las Redes Digitales de Servicios Integrados (RDSI) con el fin de asegurar la compatibilidad entre terminales de diferentes fabricantes. El estándar H.320 especifica la infraestructura de estándares que deben cumplir los sistemas de videoconferencia de banda estrecha, en los que las velocidades de transmisión son desde 64 Kbps (2B) hasta los 1.920 Kbps. Estos sistemas funcionan en modo sincrónico multiplexando los diferentes tipos de información (audio, vídeo y datos) en una estructura de trama que se transmite a través de la RDSI utilizando uno o más canales B a 64 Kbps. 32 Las características de transporte de RDSI permiten la transmisión de videoconferencia en diversos niveles de calidad. RDSI permite proveer a la videoconferencia de la sensibilidad que ésta demanda. Hasta 128 Kbps la videoconferencia es considerada de baja calidad, no siendo apropiada para aplicaciones de negocios. A velocidades iguales o superiores a 384 Kbps, RDSI provee una muy buena calidad de transmisión, ideal para aplicaciones de negocios. Sin embargo, es muy costoso y presenta ciertas complejidades. Por ejemplo, es necesario implementar tres interfaces de 128 Kbps y llevarlas a cada uno de los dispositivos de videoconferencia. Estas líneas deben entonces conectarse formando un solo canal a través de un multiplexor (MUX) como se muestra en la figura 79. Figura 7. Videoconferencia basada en RDSI Fuente: ARAUJO, Delfín. Tendencias en los estándares de transmisión para videoconferencia. Venezuela. http:://neutron.ing.ucv.ve/revista-e/No3/Araujo.html La velocidad de transmisión de la videoconferencia está directamente relacionada con las aplicaciones que se le dan a esta10: 9 ARAUJO, Delfín. Tendencias en los estándares de transmisión para videoconferencia. Caracas, Venezuela. 10 Ibid. 33 64 Kbps: Generalmente para aplicaciones de entretenimiento, donde la baja resolución y los desfases entre el audio y el vídeo son aceptables. 128 Kbps: Utilizada en conferencias dentro de empresas y organizaciones (cortas distancias). 384 Kbps: Calidad para aplicaciones de negocios. El audio y el vídeo están sincronizados y los movimientos son uniformes. 512 Kbps: Alta calidad para aplicaciones de negocios. Alta resolución y movimientos muy uniformes; el desfase entre audio y vídeo es prácticamente indetectable. 768 Kbps ó más: Excelente calidad de transmisión de videoconferencia. Ideal para aprendizaje a distancia, aplicaciones médicas, etc. Arquitectura H.320. Las diferentes recomendaciones del estándar H.32011 representadas en la figura 8 se describen a continuación: Figura 8. Arquitectura según el estándar H.320 11 INTERNACIONAL TELECOMMUNICATION UNION. ITU-T Recomendation H.320. 1990. 34 Empezando con el vídeo, la H.320 obliga a que la codificación de video se haga según la H.261, que puede trabajar con un ancho de banda que oscila entre los 64 Kbps y los 2Mbps, en múltiplos de 64 Kbps. Sin embargo, a partir del desarrollo de los estándares H.262 (MPEG-2) y H.263 (Para aplicaciones de videoconferencia de caudales hasta 64Kbps), se puede contar con otras formas de codificación de video. La recomendación básica para la codificación del audio es la G.711 (sonido PCM de 64Kbps a 4 KHz), aunque se permiten otras con diferentes calidades: G.722 (que ofrece mas calidad con un audio de 7.5 KHz con los mismos 64 Kbps de G.711) y G.728 (calidad similar a G.711, pero usando sólo 16 Kbps). En lo que se refiere a datos (transferencia de ficheros, pizarra compartida, compartición de aplicaciones, conversación mediante texto, etc.), H.320 incluye la recomendación T.120. El estándar H.320 especifica unos modos de comunicación, enunciados desde an hasta mn en la norma de la ITU y que hablan del nombre de los canales RDSI utilizados, así como de la velocidad del canal. El sufijo n representa la codificación de audio utilizada; en donde: n es cero cuando se utiliza el estándar G.711, n es igual a uno con el estándar G.722 y n es igual a dos con el estándar G.728. En la tabla 1 se muestran cada uno de los modos de comunicación. 35 Tabla 1. Modos de comunicación establecidos según el estándar H.320 Modo de Comunicación Canal RDSI Velocidad del canal (Kbps) an B 64 bn 2B 128 cn 3B 192 dn 4B 256 en 5B 320 fn 6B 384 gn H0 384 hn 2H0 768 in 3H0 1152 jn 4H0 1536 kn H11 1536 ln 5H0 1920 mn H12 1920 Como se observa en la figura 9 un enlace RDSI esta compuesto por dos canales: Un canal B; por el cual se transmite la trama H.221 y un canal D. El canal D de acceso a la RDSI se emplea para el establecimiento y la desconexión de las llamadas. Figura 9. Canales B y D de un enlace RDSI según la recomendación H.320. 36 Debido a que el proceso de codificación/descodificación de la señal de vídeo consume más tiempo que el necesario para la de audio, es preciso retardar esta última señal, de forma que el sonido quede alineado con la imagen en el terminal receptor. Esta operación de sincronización la realiza el estándar H.242. Como muestra la figura 10, la estructura de trama de cada canal B a 64 Kbps se divide en octetos transmitidos a 8 KHz. Cada posición de bit de estos octetos puede considerarse como un subcanal a 8 Kbps; se definen así 8 subcanales por cada canal B, que se pueden asignar dinámicamente a los distintos tipos de datos. El canal de señalización, permanentemente abierto dentro de la trama H.221, se utiliza para transportar las señales Bit-rate Allocation Signal (BAS) que permiten gestionar la asignación de ancho de banda a cada tipo de datos. Por ejemplo, el audio G.722 a 48 Kbps utiliza los subcanales 1 a 6 del primer canal B, los datos a 8 Kbps utilizan el subcanal 7 del primer canal B y el vídeo a 68,8 Kbps utiliza el subcanal 8 del primer canal B y los 8 subcanales del segundo canal B. Figura 10. Estructura de trama H.221 sobre un acceso básico RDSI 37 La señal de alineamiento de trama (Frame Alignment Signal FAS) de la trama H.221, contiene la palabra de alineamiento de trama; con la que se sincroniza el receptor para recuperar la información multiplexada, las señales de control y alarma, y los códigos de redundancia cíclica (Cyclic Redundancy Check, CRC), para monitorizar la tasa de errores de transmisión. No se dispone de mecanismos de retransmisión de tramas H.221 para el caso de detectarse un error, debido a la característica sincrónica de estos sistemas de videoconferencia y a los requerimientos de tiempo real de la señal audiovisual. Las señales de audio y vídeo con errores se desechan o se presentan al usuario como llegan. Una multivideoconferencia se realiza a través de una unidad de control multipunto, MCU que puede ser un puente o bridge conmutador de video al cual se conectan los puntos remotos mediante una llamada de videoconferencia RDSI. Una unidad de control multipunto consta de dos partes: la primera es el controlador multipunto (MC), el cual es establecido como obligatorio por el estándar H.320 y tiene como función proveer la capacidad de controlar las llamadas para negociar con toda terminal y así lograr niveles comunes de comunicación. La parte opcional son los procesadores multipunto (MP) que permiten mezclar, conmutar o realizar procesamiento de chorros de información que se encuentran bajo en control del MCU. 38 3.1.2 Adaptación de los Terminales Videotelefónicos H.320 a Entornos de la RDSI de Banda Ancha (RDSI-BA), H.321. Esta recomendación adoptada en febrero del año de 1998, describe las especificaciones técnicas para la adaptación de terminales de comunicaciones audiovisuales de banda estrecha, como se definen el la recomendación H.320, a entornos de RDSI de banda ancha, es decir, ATM (Modo de Transferencia Asíncrona). El estándar H.321 nació como una alternativa para mejorar las características del estándar H.320 en cuanto a calidad de transmisión, con un costo y una complejidad menores, el estándar H.320 se adapto y surgió el estándar H.321, el cual describe los métodos para implementar videoconferencia sobre ATM con ventajas sobre el modelo ISDN, y totalmente compatible con el estándar H.320. El terminal que cumple con esta recomendación (H.321) trabaja en conjunto con el mismo tipo de terminales H.321 en la RDSI de banda ancha (B-ISDN) tanto como con terminales H.320 en la RDSI de banda estrecha (N-ISDN). El estándar H.321 basado en ATM implementa la videoconferencia en el mismo estilo que RDSI, con los mismos incrementos en velocidad de transmisión (128 Kbps, 384 Kbps, 768 Kbps, etc.). La diferencia fundamental es que la videoconferencia sobre ATM es más fácil y menos costosa de implementar. ATM logra esto debido a aspectos como los siguientes: • Las tarjetas V.35 son sustituidas por una tarjeta ATM a 25 Mbps. La tarjeta ATM en 39 costo, es unas cuantas veces mucho menor que los componentes V.35. • Se utiliza un gateway RDSI-ATM como punto de acceso centralizado para la red WAN RDSI. Esta metodología permite el acceso fuera de la red y sirve también de centro de multiplexación, sustituyendo los multiplexores para cada estación utilizados en la implementación RDSI. Esto proporciona un ahorro importante. • Se utilizan switches ATM en lugar de RDSI, disminuyendo costos en la implementación. • La topología ATM no necesita de múltiple cableado como ocurre con la implementación RDSI, que requiere de tres cables UTP individuales (Ver figura 11). Figura 11. Videoconferencia basada en el estándar H.321 Fuente: ARAUJO, Delfín. Tendencias en los estándares de transmisión para videoconferencia. Venezuela. http:://neutron.ing.ucv.ve/revista-e/No3/Araujo.html Para garantizar la interoperabilidad entre ambas redes H.321 aprovecha toda la infraestructura de H.320 como son los estándares G.711, H.261, H.221 y H.242. Sin embargo, H.321 no aprovecha todas las ventajas que proporciona ATM por las siguientes 40 razones: 1. Al usar el estándar H.261 la transmisión de vídeo queda limitada a 2 Mbps mientras que usando otros estándares de vídeo podría aprovechar mejor el ancho de banda que ofrece ATM. 2.- Al imponer el uso del AAL1 (ATM Adaptation Layer 1) con una tasa de bits constante (CBR), se genera una limitación, porque un sistema de videoconferencia podría aprovechar de forma óptima las ventajas de un servicio VBR (tasa de transmisión variable), dadas las características del tráfico que genera. Arquitectura del estándar H.321. La arquitectura de un sistema de videoconferencia basada en el estándar H.32112 se representa en la figura 12. Figura 12. Arquitectura de un terminal de videoconferencia según el estándar H.321 12 INTERNACIONAL TELECOMMUNICATION UNION. ITU-T Recomendation H.321. 1995. 41 Por ser H.321 una adaptación del estándar H320, este sigue especificando el uso de algunos de los estándares como son: H.261 y H.263 para el vídeo, G.711, G.722 y G.728 para el audio, T.120 para los datos, H.221 para la multiplexación, H.242 para el control en comunicaciones punto a punto, H.231 y H.243 para las sesiones multipunto, H.230 para el sistema de control y H.233 para la seguridad en la comunicación. Un terminal H.321 puede participar con otro terminal H.321 o terminales H.320 en las comunicaciones multipunto a través de MCUs que se acomodan en B-ISDN o N-ISDN (ver figura 15). La adaptación de funciones de H.320 sobre B-ISDN se logra a través de la capa de adaptación de ATM 1 (AAL-1) o la capa de adaptación de ATM 5 (AAL-5). Las características temporales de los canales de 64kbps de N-ISDN son emuladas usando el servicio CBR de AAL1. Así, varios circuitos virtuales (VCs) ATM de 64 Kbps se establecen para realizar las mismas funciones como los canales B de N-ISDN. Sin embargo, por ser H.321 demasiado dependiente de la codificación de video H.261, este estándar requiere el uso de AAL1, el cual no es soportado por la mayoría de las tarjetas de interfaz ATM disponibles comercialmente. Además, la resolución de un terminal de H.321 se limita a la calidad del CIF (352x288 píxeles) especificado en la norma de H.261. 42 3.2.3 Sistemas y Equipos Terminales Videotelefónicos para Redes de Área Local que Proporcionan una Calidad de Servicio Garantizada, H.322. El estándar H.322 adoptado en marzo de 1995, es una versión mejorada del H.320, ya que especifica los requerimientos técnicos para los equipos terminales de comunicaciones de redes de área local que garantizan calidad de servicio (QoS). Este además, fue el primer estándar usado con la norma IEEE 802.9a (IsoEthernet) para redes LAN Ethernet. Las redes IsoEthernet, como su nombre lo indica, es una abreviación de Ethernet Isócrona. El término Isócrona significa sensible al tiempo, y por consiguiente, en el contexto de las redes, la IsoEthernet esta diseñada para soportar aplicaciones sensibles al tiempo como la telefonía y las videoconferencias. Este tipo de redes esta íntimamente ligado a RDSI, ya que sobre la misma red existen canales Ethernet y canales B-ISDN. El canal Ethernet se usa para cubrir las necesidades de redes de datos normales; los canales B-ISDN se usan para aplicaciones sensibles al tiempo. Así, la IsoEthernet es en realidad dos redes en una. Ella contiene un canal Ethernet a 10Mbps para tráfico 10BASE-T y un canal separado a 6.144Mbps para tráfico Isócrono13. La IsoEthernet requiere adaptadores de red IsoEthernet en todos los nodos extremos que requieren capacidad isócrona y concentradores IsoEthernet en los paneles de alambrado. En vista de esto, la IsoEthernet ha sido desplazada por Gigabit Ethernet y por las tecnologías ATM locales, y por tanto, ha encontrado poco soporte por parte de los vendedores. 13 COX, Nancy. Guia de redes multimedia. Madrid. McGrawHill. 1996. P 123. 43 Por lo anterior, se puede decir que el estándar H.322 es una extensión del estándar H.320 a redes de área local que garantizan el ancho de banda (QoS) combinando las capacidades de RDSI (WAN) y 10BaseT (LAN). Y debido a que proporciona una calidad de video equivalente a un sistema de videoconferencia basado en RDSI, se hace necesario que los terminales dispongan de los mecanismos de sincronización de la RDSI. Arquitectura del estándar H.322. Como se observa en la figura 13, la arquitectura de un terminal de comunicaciones H.32214 es un fiel reflejo de lo establecido en la recomendación H.320 para RDSI. Figura 13. Arquitectura de un terminal de comunicaciones según el estándar H.322 La única diferencia del H.322 reside en la utilización de una interface LAN para la adaptación de los datos al entorno de una red de área local. Esta interface LAN esta 14 INTERNACIONAL TELECOMMUNICATION UNION. ITU-T Recomendation H.322. 1995. 44 representado en un gateway de comunicaciones, el cual provee la conexión entre las dos redes de comunicaciones, este además se encarga de digitalizar, comprimir y transmitir la información de video, audio y datos a través de redes de transporte de comunicaciones como lo son: Ethernet, FDDI, RDSI o ATM, entre otras. Entre las razones por las cuales esta recomendación H.322 de la ITU-T utiliza este dispositivo (Gateway) están: • Interfaz a la LAN • Interfaz a la WAN • Conversión de la dirección destino del terminal H.322 al cual se llama. Esto sólo se requiere si la red LAN no soporta la recomendación E.164 (números de teléfonos convencionales). • Adaptador de interworking si la WAN es RDSI de banda ancha (RDSI-BA). Las funciones básicas requeridas son esencialmente aquéllos especificados en la recomendación I.580 para el interworking entre N-ISDN y B-ISDN. La figura 14 muestra un ejemplo de una topología de red tipo bus, en la cual, los terminales H.322 se encuentran interconectados en una red LAN con QoS garantizado, y a su vez esta, posee una salida a una red WAN con una diferente tecnología de transmisión como N- ISDN o B-ISDN. 45 Figura 14. Ejemplo de una red H.322 Fuente: INTERNACIONAL TELECOMMUNICATION UNION. ITU-T Recomendation H.322. 1995. 3.2.4 Sistemas de Comunicación Multimedia Basados en Paquetes, H.323. El estándar H.323 aprobado se define como una especificación que describe los protocolos para las comunicaciones en tiempo real de las redes no orientadas conexión que no garantizan un ancho de banda ni un retardo fijo, es decir, las redes basadas en el intercambio de paquetes IP, y ha sido ratificado por la ITU (Unión Internacional de Telecomunicaciones) como el estándar que permite la integración de audio, vídeo, y datos para su intercambio en comunicaciones de redes de área local (LAN) como Ethernet, Token Ring o FDDI, redes con modo de transmisión asíncrona (ATM), líneas arrendadas, o redes Frame Relay; así como a través de redes de área amplia (WAN). Origen del estándar H.323. La primera versión de H.323, aprobada por el grupo de estudio 15 vio la luz en Diciembre de 1996 y hasta el momento la última versión publicada 46 es la quinta. El estándar H.323 utiliza como base la recomendación H.320. Es así, que muchos de los componentes de H.320 están incluidos en H.323, por lo que en ese sentido H.323 puede ser visto como una extensión de H.320. Este nuevo estándar fue diseñado tomando en consideración ideas como: • Desarrollo sobre estándares existentes incluyendo H.320, RTP (Real Time Protocol) y Q.931. • Incorporación de las ventajas que ofrecen las redes de paquetes para el transporte de datos en tiempo real. • Utilización de los algoritmos de compresión para vídeo y audio como en H.320 y utilización de la serie de recomendaciones T.120 para la colaboración de datos. En las redes no orientadas a conexión se realiza el llamado "mejor esfuerzo" para entregar los paquetes, pero cada uno y en función del estado de los enlaces, puede seguir una ruta distinta, por lo que el orden secuencial se puede ver alterado, lo que se traduce en una pérdida de calidad. Si contemplamos las redes IP, con TCP se garantiza la integridad de los datos y con UDP (datagrama) no. Por lo anterior, se estableció a TCP para realizar el intercambio de información de manera fiable (por ejemplo, los datos y la información de control). Como se observa en la figura 15, la transmisión de paquetes de audio y vídeo se realiza bajo UDP, para evitar la sobrecarga de TCP. 47 Figura 15. Arquitectura de protocolos de un sistema de videoconferencia H.323. Fuente: SWITCH, The Swiss Education & Research Network. Basic Architecture of H.323. 2003) Arquitectura de un sistema de videoconferencia H.323. La recomendación H.32315 de la ITU representada en la figura 16, especifica los ya conocidos formatos H.261, G.711 y T.120 para el vídeo, el audio y los datos, respectivamente. Figura 16. Arquitectura de un terminal de videoconferencia H.323. 15 INTERNACIONAL TELECOMMUNICATION UNION. ITU-T Recomendation H.323v4. Formato: pdf. 1996. 131 Págs. 48 H.323 se diferencia de la H.320 en que se implementan nuevas codificaciones de audio y video; las correspondientes al control de llamada pasan a ser H.245 y H.246, y la de medio de transporte es ahora H.225.0 (empaquetamiento de los datos y la sincronización). Como formatos alternativos, se citan el H.263 para el vídeo, y los formatos G.722, G.723, G.728, G729 y MPEG 1 para el para audio. El algoritmo de codificación de audio, la transferencia de vídeo, el formato de imagen y las opciones del algoritmo de codificación de video que puede aceptar el receptor, se definen durante el intercambio de funciones mediante H.245 (estándar de control), de forma que el codificador (transmisor) tiene libertad para transmitir en cualquier formato que sea interpretable por el receptor. Además, el receptor puede enviar peticiones (mediante H.245) para un determinado modo. Al igual que en la transmisión de vídeo, la comunicación puede ser asimétrica, por ejemplo se puede enviar audio codificado con G.711 y recibir en G.729, pero siempre y cuando ambos equipos lo soporten. Componentes de un terminal de videoconferencias H.323. H.323 define cuatro componentes (ver figura 17) y la forma en estos actúan recíprocamente entre sí, estos componentes incluyen: terminales, Gateways, Gatekeepers, y Unidades de Control Multipunto (MCU), las cuales se dividen en Controladores Multipunto (MC) y Procesadores Multipunto (MP)16. 16 DATA BEAM CORPORATION. A primer on the H.323 series Standard. 1997. http://www.packetizer.com/iptel/h323/papers/primer 49 Figura 17. Componentes de una red H.323 Fuente: SWITCH, The Swiss Education & Research Network. Basic Architecture of H.323. 2003) Terminal H.323: Los terminales son los dispositivos que proporcionan una comunicación bidireccional en tiempo real con otro terminal H.323, Gateway o MCU (Unidad de Control Multipunto). Los terminales representan los clientes finales de la LAN como los teléfonos IP, teléfonos software y terminales de videoconferencia. Todos los terminales deben soportar H.245, el cual es usado para negociar el uso del canal y las capacidades. Otros tres componentes requeridos son: Q.931 para el establecimiento de la llamada y la señalización, un componente llamado RAS (Registrantion/Admisión/Status), y soporte para RTP/RTCP (Real-time Transport Protocol/Real-time Transport Control Protocol) para fijar la secuencia de los paquetes de audio y video. Gatekeeper: Los Gatekeepers son un elemento opcional en la comunicación entre terminales H.323. No obstante, son el elemento más importante de una red H.323, ya que 50 actúan como punto central de todas las llamadas dentro de una zona y proporcionan servicios a los terminales registrados y control de las llamadas. De alguna forma, el Gatekeeper H.323 actúa como un conmutador virtual. Este se utiliza básicamente en ambientes (zonas) donde el ancho de banda debe ser distribuido en gran cantidad de puntos que forman la red. Según el estándar H.323, cada zona (Una zona incluye al menos un terminal y puede o no incluir Gateway’s o MCU’s) puede tener sólo un Gatekeeper activo, pero pueden haber muchas zonas, y por consiguiente muchos Gatekeeper’s dentro de una organización. Una zona H.323 puede ser independiente de la topología de red (como la que se observa en la figura 18) y puede consistir de segmentos múltiples los cuales pueden estar conectados utilizando routers u otros dispositivos de comunicaciones. Figura 18. Zona H.323. Fuente: DataBeam Corporation. A Primer on the H.323 Series Standard. 1997. http://www.cs.ucl.ac.uk./staff/jon/jip/h323/h323_primer.html El dialogo entre terminales H.323 y el Gatekeeper se desarrolla mediante la especificación H.225 RAS (Registration, Admisión and Status). Como se puede deducir, la comunicación entre ambas entidades tiene como finalidad el registro, la admisión y el control del estado de un terminal de un usuario dentro de una red H.323. 51 Son funciones obligatorias de un Gatekeeper H.323: • Traducción de Direcciones: Traducción de alias (por ejemplo, e-mails) a direcciones de transporte IP o IPX, usando para ello una tabla que se modifica con mensajes de registro. • Control de Admisión: El Gatekeeper autoriza el acceso a la red LAN usando mensajes (ARQ/ACF/ARJ) de petición de admisión, de confirmación y de rechazo. El acceso puede darse por medio de una llamada de autorización, por medio de la asignación de ancho de banda, o algún otro criterio. • Control de Ancho de Banda: El Gatekeeper debe soportar mensajes (BRQ/BRJ/BCF) de petición de ancho de banda, confirmación y rechazo. Esto puede usarse para gestión del ancho de banda. • Gestión de Zona: El Gatekeeper debe suministrar las funciones anteriores a todos los terminales, MCUs y Gateways que se encuentren registrados en su zona de control. Las funciones opcionales de un Gatekeeper H.323 son: • Señalización de control de llamada: En una videoconferencia punto a punto el Gatekeeper puede procesar señales de llamadas de control Q.931. • Autorización de llamada: El Gatekeeper puede rechazar una llamada desde un terminal basándose en la especificación Q.931 (H.225.0). Las razones para rechazar la llamada podrían ser, acceso restringido desde o hacia un terminal particular o Gateway y acceso restringido durante un periodo de tiempo. • Gestión de llamada: El Gatekeeper puede mantener una lista de las llamadas en curso, 52 esta información puede ser usada para indicar si un terminal está ocupado o para dar información a la función de gestión de ancho de banda. • Gestión del ancho de banda: El Gatekeeper puede rechazar llamadas de un terminal si determina que el suficiente ancho de banda no está disponible de acuerdo a un número establecido de videoconferencias que pueden estar dándose simultáneamente en la LAN. Esta función también opera durante una llamada activa si un terminal pide un ancho de banda adicional. El efecto de esta función es limitar el ancho de banda total de las videoconferencias a alguna fracción del total existente para permitir que la capacidad restante se use para e-mail, transferencias de archivos y otros protocolos. Mientras que un Gatekeeper está lógicamente separado de los extremos de una videoconferencia H.323, los fabricantes pueden elegir incorporar la funcionalidad del gatekeeper dentro de la implementación física de Gateways y MCUs. Los Gatekeepers juegan también un rol en las conexiones multipunto. Para soportar conferencias multipunto, los usuarios podrían emplear un Gatekeeper para recibir los canales de control H.245 desde dos terminales en una videoconferencia punto-punto. Así, cuando una videoconferencia cambia a multipunto, el Gatekeeper redirecciona el canal de control H.245 a un controlador multipunto (MC). No obstante, el Gatekeeper no procesa las señales H.245, solo se dedica a pasarlas entre el MC y las terminales. Existen dos formas para que un terminal se registre en un Gatekeeper, sabiendo su 53 dirección IP y enviando un mensaje de registro unicast a esta dirección o bien enviando un mensaje multicast de descubrimiento del Gatekeeper (GRQ) que pregunta ¿quién es mi Gatekeeper? Gateway: Un Gateway H.323 es un dispositivo de hardware que permite a una terminal H.323 comunicarse en tiempo real con una terminal H.320 (RDSI) o H.324 (RTB) como se observa en la figura 19. Figura 19. Gateway H.323/H.320. Fuente: Cisco Systems, Inc. Cisco IP Videoconferencing Solution Reference Network Design Guide. Julio 2002. http://www.cisco.com Los Gateways permiten la conectividad física con otras redes por medio de la traducción de los protocolos H.323 usados en una red de IP a los protocolos H.320 de las Redes Digitales de Servicios Integrados (RDSI), o a los protocolos H.324 usados en una red telefónica 54 básica. El Gateway es un elemento opcional de una videoconferencia H.323. Es necesario solo si necesitamos comunicar con un terminal que está en otro tipo de red (por ejemplo, RTB o RDSI). Entre los servicios que los Gateways proporcionan, el más común es la traducción entre formatos de transmisión (por ejemplo H.225.0 a H.221) y entre procedimientos de comunicación (por ejemplo H.245 a H.242). Además el Gateway también traduce entre los codecs de video y audio usados en ambas redes y procesa la configuración de la llamada y limpieza de ambos lados de la comunicación. Una característica de los Gateways es que una entidad llamable, es decir, que posee una dirección. Las principales aplicaciones de los Gateways son: 1. Establecer enlaces con terminales telefónicos analógicos conectados a la RTB (Red Telefónica Básica) 2. Establecer enlaces con terminales remotos que cumple H.320 sobre redes RDSI basadas en circuitos conmutados (SCN) 3. Establecer enlaces con terminales telefónicos remotos que cumplen con H.324 sobre red telefónica básica (RTB) Muchas funciones del Gateway son dejadas al fabricante. Por ejemplo, el número de terminales H.323 que pueden comunicar a través del Gateway no es asunto de estandarización. De la misma manera el número e conexiones con la SCN, el número de conferencias individuales soportadas, las funciones de conversión de audio/video/datos, y la inclusión de funciones multipuntos son dejadas a criterio del fabricante. 55 A raíz de la incorporación de los Gateways a la especificación H.323, la ITU estableció el estándar H.323 como el estándar capaz de unir a todos los terminales para videoconferencias. Además el estándar H.323 se constituye en el más importante en nuestro medio debido a la masificación de las arquitecturas de redes basadas en Ethernet. Unidad de control de multipunto (MCU): Una unidad de control de multipunto H.323, como se observa en la figura 20, es un nodo que ofrece la capacidad para tres o más terminales y Gateways con la finalidad de participar en una videoconferencia multipunto. El MCU maneja negociaciones entre todas las terminales para determinar las capacidades comunes del procesamiento de audio y vídeo. El MCU también puede mezclar, cambiar, y puede procesar las entradas de señales de vídeo y audio y decide cómo estos se dirigirán a cada participante en la videoconferencia. El MCU H.323 consiste de dos partes: Un controlador de multipunto (MC) y un modulo de procesadores multipunto (MP). En el más simple de los casos un MCU puede tener un controlador de multipunto sin procesadores multipunto. Controlador de multipunto (MC): Es un componente de H.323 que provee habilidad de negociación con todos los terminales para llevar a cabo capacidades comunes para el procesado de audio y video. El MC también controla los recursos de la videoconferencia para determinar cuales de los flujos, si hay alguno, serán multicast. El MC no ejecuta mezcla o conmutación de audio, vídeo o datos. 56 Figura 20. Unidad de control de multipunto H.323 Fuente: Cisco Systems, Inc. Cisco IP Videoconferencing Solution Reference Network Design Guide. Julio 2002. http://www.cisco.com Procesador de Multipunto (MP): Es un componente de H.323 de hardware y software especializado que mezcla, conmuta y procesa audio, vídeo y/o flujo de datos para los participantes de videoconferencia multipunto de tal forma que los procesadores del terminal no sean sobrecargados. El procesador de multipunto puede procesar un flujo de medio único o flujos de múltiples medios dependiendo de la videoconferencia soportada. Los componentes de las redes H.323 tratados anteriormente (Terminal, MCU, Gatekeeper y Gateway) interoperan en el extremo final del usuario con otros estándares y redes, mediante el Gateway H.323, tal como se observa en la figura 21. 57 Figura 21. Interoperatividad de la red H.323 con otros terminales Fuente: DataBeam Corporation. A Primer on the H.323 Series Standard. 1997. http://www.cs.ucl.ac.uk./staff/jon/jip/h323/h323_primer.html Tipos de videoconferencias multipunto. Existen una variedad de métodos de gestionar las videoconferencias multipunto. La recomendación H.323 hace uso de los conceptos de videoconferencia centralizada, descentralizada, híbrida y mixta17. Las videoconferencias centralizadas como se observa en la figura 22 requieren de una MCU. Todos los terminales envían audio, video, datos y flujos de control a la MCU en un comportamiento punto-punto. El MC gestiona de forma centralizada la videoconferencia usando las funciones de control H.245 que también definen las capacidades de cada terminal. El MP mezcla el audio, distribuye los datos y mezcla/conmuta el video y envía los resultados en flujos de vuelta a cada terminal participante. Una ventaja de las conferencias 17 DATA BEAM CORPORATION. A primer on the H.323 series Standard. 1997. http://www.packetizer.com/iptel/h323/papers/primer 58 centralizadas es que todos los terminales soportan comunicaciones punto a punto. La MCU puede sacar varios flujos unicast a los participantes y no se requiere ninguna capacidad de la red especial. Figura 22. Videoconferencias descentralizadas y centralizadas según H.323 Fuente: DataBeam Corporation. A Primer on the H.323 Series Standard. 1997. http://www.cs.ucl.ac.uk./staff/jon/jip/h323/h323_primer.html En videoconferencias multipunto descentralizadas como las observadas en las figuras 22 y 23 se puede hacer uso de tecnología multicast. Los terminales H.323 participantes envían audio y video a otros terminales participantes sin enviar los datos a una MCU. Sin embargo, el control de los datos multipunto sigue siendo procesado de forma centralizada por la MCU, y la información del canal de control H.245 sigue siendo transmitida de modo unicast a un MC. En las videoconferencias multipunto híbridas como la mostrada en la figura 23 se usa una combinación de características de las centralizadas y descentralizadas. Las señalizaciones y 59 cualquier flujo de audio o video son procesados a través de mensajes punto a punto enviados a la MCU. Las restantes señales (audio o video) son enviadas a los participantes a través de multicast. Figura 23. Videoconferencias descentralizadas e híbridas según H.323 Fuente: DataBeam Corporation. A Primer on the H.323 Series Standard. 1997. http://www.cs.ucl.ac.uk./staff/jon/jip/h323/h323_primer.html H.323 también soporta videoconferencias multipunto mixtas en las cuales algunos terminales están en una videoconferencia centralizada, mientras otros están en una descentralizada, y una MCU proporciona el puente entre los dos tipos. Al terminal le es transparente la naturaleza mixta de la videoconferencia, solo tiene en cuenta el modo en que envía o recibe. Multicast hace más eficiente el uso del ancho de banda de la red, pero supone una más alta carga computacional en los terminales que tienen que mezclar y conmutar entre los flujos de audio y video que reciben. Además, el soporte multicast es necesario en elementos de la 60 red como routers y switches. RTP y RTCP. El protocolo TCP/IP, utilizado en múltiples comunicaciones, es un protocolo de transferencia seguro, gracias a TCP, se asegura la transmisión libre de errores. Sin embargo, no hay garantía de que los paquetes lleguen ordenados a su destino (en tiempo real), lo que causa problemas para la voz o el vídeo. Para evitar este efecto, el IETF propuso el protocolo denominado RTP18 (Real-Time Transport Protocol) que facilita el soporte para el transporte de datos en tiempo real como lo son el audio y el video. Los servicios de RTP incluyen la reconstrucción de temporizaciones, la detección de perdidas de paquetes y la seguridad e identificación de contenidos. RTP ha sido diseñado principalmente para la transmisión multicast, pero también se puede utilizar en unicast. RTP posee mecanismos como: marcas temporales (timestamp) y numeración de secuencias para proporcionar el transporte punto a punto en tiempo real sobre una red datagrama. Las marcas temporales (timestamp) son usadas por el receptor para reconstruir la temporización y reproducir los datos a la velocidad correcta. Las marcas de tiempo se usan también para sincronizar las distintas secuencias de audio y video. Debido a que UDP no despacha los paquetes ordenados en el tiempo, la numeración de secuencias se usa para ordenar los paquetes recibidos y para detectar la perdida de paquetes. La elección de UDP se debe a varias razones. En primer lugar RTP puede hacer 18 BERNARDEZ, Rosa. Servicios de video sobre redes móviles de nueva generación. Telefónica I+D. Formato: pdf. 2001. 61 uso de las funciones de multiplexado de UDP, además RTP fue diseñado pensando en los servicios multicast, así como en transmisión de datos en tiempo real. Un inconveniente que tiene la implementación de RTP sobre TCP es que este último ofrece una fiabilidad de transmisión usando la retransmisión de paquetes, lo cual en el caso de tráfico de datos en tiempo real es un inconveniente. En la práctica, RTP se implementa generalmente dentro de la aplicación, pues temas como la recuperación de paquetes perdidos o de control de las congestiones de red, tienen que ser implementados a nivel de aplicación. Por su parte, el RTCP19 (Real Time Control Protocol) es un protocolo diseñado para trabajas conjuntamente con RTP. En una sesión RTP, los participantes se envían periódicamente paquetes RTCP para tener realimentación sobre la calidad de la recepción, así como para obtener información acerca de los participantes en la sesión de videoconferencia. Se definen cinco tipos de paquetes RTCP para transportar la información de control: 1. RR (Informe de receptor): Informes enviados por los participantes que no son emisores activos. Estos informes contienen datos a cerca de la calidad de la recepción, incluyendo en numero mas alto de secuencia recibido, el numero de paquetes perdidos, 19 BERNARDEZ, Rosa. Servicios de video sobre redes móviles de nueva generacion. Telefonica I+D. Formato: pdf. 2001. 62 la información sobre paquetes desordenados y las marcas temporales para calcular el retardo de ida y vuelta entre el receptor y el trasmisor. 2. SR (Informe de emisor): Los informes de emisores son generados por los emisores activos. Además de datos sobre la calidad de la recepción, como en los RR, contienen datos de contadores acumulativos de paquetes y del número de bytes enviados. 3. SDES (Datos de descripción de fuente): Contienen información descriptiva de la fuente de los datos. 4. BYE (Adiós): Indica el fin de la participación. 5. APP (Datos específicos de la aplicación): Se han reservado para los usos experimentales, mientras se desarrollan nuevas funciones y tipos de aplicaciones. A través de estos tipos de paquetes RTCP proporciona los siguientes servicios: • Monitorización de la calidad de servicio (QoS) y congestión de red: La función primaria de RTCP es proporcionar realimentación a una aplicación sobre la calidad de la distribución. • Identificación de fuentes: Las fuentes de datos se identifican en los paquetes RTP con identificadores de 32 bits generados aleatoriamente. Los paquetes RTCP SDES contienen identificadores únicos globales e información textual, como el nombre de los participantes, el numero de teléfono, la dirección de e-mail, etc. • Sincronización intermedia: RTCP envía informes con información en tiempo real que corresponde a una determinada marca temporal. Esa información puede ser utilizada para sincronizar fuentes de datos que procedan de distintas sesiones RTP. 63 • Escalado de la información de control: Cuando el número de participantes en una videoconferencia aumenta, RTP limita el tráfico de control al 5% del tráfico total de la sesión por medio del ajuste del trafico RTCP a un régimen acorde al numero de participantes. QoS. Debido a la carencia de calidad de servicio en estas arquitecturas Ethernet, los diseñadores de los sistemas de transporte han propuesto un nuevo protocolo, el Resource ReSerVation Protocol (RSVP)20, que actúa sobre la red para canalizar su comportamiento y hacerlo compatible con las necesidades del transporte en tiempo real. El RSVP es un protocolo del IETF, aunque no es parte del H.323, el RSVP se emplea para solicitar la reserva de un determinado ancho de banda y otros recursos, a lo largo de toda la red, para una videoconferencia y obtener la confirmación sobre si es posible hacerla, algo esencial si se quiere mantener una videoconferencia sobre una LAN. RSVP se integra en una evolución hacia una nueva arquitectura, que pretende asegurar las comunicaciones multipunto en tiempo real conservando la filosofía del mejor esfuerzo (best effort) y la arquitectura IP. Esta evolución prevé los siguientes puntos: • Establecer y mantener un camino único para un flujo de datos gracias a los protocolos de encaminamiento multipunto. Este mantenimiento del camino es indispensable para el funcionamiento de RSVP. • Establecer un módulo de control que gestione los recursos de la red. 20 BERNARDEZ, Rosa. Servicios de video sobre redes móviles de nueva generacion. Telefonica I+D. Formato: pdf. 2001. 64 • Instaurar un sistema de ordenación de paquetes en la cola de espera para satisfacer la calidad de servicio solicitada. En general, RSVP es un protocolo de control que permitirá obtener el nivel de calidad de servicio optimizado para un flujo de datos. Ventajas de los sistemas H.323. Los sistemas de videoconferencia H.323 proporcionan una serie de beneficios que justifican su implementación: • En lugar de tener que desplegar conexión ISDN a cada sistema de videoconferencia desktop se pueden emplear conexiones basadas en el H.323, lo que permite el uso más rentable de ISDN usando Gateways H.320 y menos líneas de ISDN. • En una Intranet corporativa, un sistema de videoconferencias puede proporcionar conexiones más fiables. Con H.323, el administrador de la red puede restringir la cantidad de ancho de banda de la red disponible para la videoconferencia. • Interoperabilidad entre equipos de vendedores diferentes basados en los permisos entre H.320 y H.323. • Influencias en inversión de infraestructuras de red Ethernet que existen en la sociedad. • El ancho de banda de la tecnología Ethernet/IP en las Redes de Área Local esta creciendo cada vez mas, emigrando de 100Mbps a 1000Mbps (Gigabit Ethernet) y a 10 Gigabit Ethernet que ya es un hecho. • El estándar H.323 es independiente del transporte, permitiendo la implementación de cualquier arquitectura de transporte, como por ejemplo ATM. 65 • El H.323 es un estándar bastante flexible, ya que tamben es independiente del hardware y del sistema operativo; además su diseño permite la compatibilidad de la red independientemente de su topología y su interacción en cualquier ambiente basado en el protocolo de Internet IP. En resumen, la norma H.323 define la forma cómo los puntos de la red transmiten y reciben llamadas, compartiendo las capacidades de transmisión de audio, vídeo y datos; cómo la información de audio y vídeo se estructura y se sincroniza para transmitirse a través de la red y por ultimo, cómo los puntos de la red se comunican con los Gatekeepers respectivos para solicitar el uso de ancho de banda. 3.2.5 Sistemas y Terminales para Comunicaciones Audiovisuales de Banda Ancha, H.310. En 1996 la ITU-T aprobó la recomendación H.310, que define los sistemas y terminales para llevar a cabo comunicaciones audiovisuales sobre redes ATM. Este estándar permite soportar aplicaciones simétricas (en tiempo real) como la videoconferencia y asimétricas como el vídeo bajo demanda, servicios de mensajería y servicios de distribución como la TV broadcast. Aunque H.310 especifica a H.321 como una posible forma de trabajar, define también un modo ATM nativo (operación entre terminales ATM). Mientras los estándares H.320 y H.321 pueden proporcionar una elevada calidad de videoconferencia, especialmente cuando 66 se utilizan elevadas velocidades de transmisión (768 Kbps ó mas), el estándar H.310 define una metodología para implementar videoconferencia basada en MPEG-2 (ó H.262) sobre ATM a velocidades que van entre 8 y 16 Mbps. Arquitectura del estándar H.310. En la figura 27 se muestra la arquitectura del estándar H.31021, el cual por motivos de compatibilidad maneja las mismas especificaciones de los otros estándares; las diferencias están en los tipos de interfaces empleados AAL (AAL1 o AAL5) y en la incorporación de MPEG 1 y 2 como métodos de codificación de audio y video. Figura 24. Arquitectura del estándar H.310 Todos los terminales para videoconferencia de H.310 soportan la recomendación G.711 para audio. Opcionalmente pueden soportar una o más de las siguientes recomendaciones 21 INTERNATIONAL TELECOMMUNICATION UNION. ITU-T Recomendation H.310. Formato: pdf. 1996. 49 Págs. 67 de audio de la ITU-T: G.722 a 64 Kbps, G.722 a 56 Kbps, G.722 a 48 Kbps/s, G.723.1 entre 5.3 o 6.3 Kbps, G.728 (16 Kbps), G.729 (8 Kbps) y MPEG 1 y 2. En cuanto al video, todos los terminales H.310 soportan la recomendación H.261 con los formatos de imagen (CIF) y QCIF. Sin embargo, tienen la opción de utilizar las recomendaciones H.263 y H.262 (MPEG-2). Al igual que los demás estándares de videoconferencia, T.120 es la base predefinida de operabilidad de los datos entre terminales H.310 y terminales como: H.310, H.320, H.321, H.322, H.323 o H.324. La multiplexación de audio, video, datos y señales de control en los terminales H.310 se ha logrado usando los protocolos definidos en las recomendaciones H.221 (estructura de trama para un canal de 64Kbps a 2Mbps) y H.222.1. La recomendación H.222.1 especifica las funciones de los protocolos H.222.0 (codificación genérica de imágenes en movimiento e información de audio) y H.222.1 (multiplexación y sincronización para comunicación audiovisual en ATM) para multiplexación y sincronización de video, audio, dato y señal de control. Tipos de Terminales. El estándar H.310 define terminales unidireccionales y bidireccionales clasificándose en función del nivel de AAL (ATM Adaptation Layer) empleado (AAL1 o AAL5) como muestra la tabla 2. 68 Tabla 2. Tipos de terminales de H.310 AAL AAL1 AAL5 AAL1&5 Transporte Unidireccional ROT ROT-1 ROT-5 ROT-1&5 Audiovisual SOT SOT-1 SOT-5 SOT-1&5 Bidireccional RAST RAST-1 RAST-5 RAS-T1&5 Fuente: INTERNATIONAL TELECOMMUNICATION UNION. ITU-T Recomendation H.310. Formato: pdf. 1996. 49 Págs. Por ejemplo, para los terminales RAST existen tres clases: los que soportan AAL1 (llamados RAST-1), los que soportan AAL5 (llamados RAST-5) y los que soportan ambas AAL (llamados RAST-1&5). Sin embargo, teniendo en cuenta el tema de esta monografía, el interés principal reposa en la descripción de los terminales bidireccionales, ya que estos se implementan en videoconferencia. La clasificación de los terminales bidireccionales H.310 se basa en un conjunto de capacidades audiovisuales, de adaptación a la red y de señalización. Con estas capacidades mostradas en la tabla 3, los terminales bidireccionales H.310 soportan un amplio rango de servicios y aplicaciones. Por ejemplo, los terminales bidireccionales en modo nativo utilizan como obligatorio el estándar de video MPEG-2 con una resolución de imagen de 720x576 píxeles y una velocidad de transmisión de 15Mbps, para el audio se especifica el estándar G.711. Y como opcionales los estándares MPEG-2 (en otros formatos), H.261 y H.263 para el video, y MPEG-1, MPEG-2, G.722, G.728, G.723.1 y G.729 para el audio. 69 Tabla 3. Capacidades audiovisuales de los terminales bidireccionales H.310 Capacidades audiovisuales Tipo de Terminal Video Audio Obligatorio Opcional Obligatorio Opcional Modo MPEG-2 H.261 MPEG-1 RAST-1, nativo (720x576 MPEG-2* MPEG-2 RAST-5, 15Mbps) H.263 G.711 G.722 RAST-1&5 G.728 Modo MPEG-2 G.723.1 H.320/1 H.261 H.263 G.729 Fuente: INTERNATIONAL TELECOMMUNICATION UNION. ITU-T Recomendation H.310. Formato: pdf. 1996. 49 Págs. Los terminales bidireccionales pueden operar tanto en el modo nativo como en el modo H.320/1. En la figura 25 se muestra los estándares de audio, video, multiplexación y control que usan cada uno de los terminales en cada uno de estos modos. Figura 25. Protocolos utilizados por los terminales bidireccionales Fuente: INTERNATIONAL TELECOMMUNICATION UNION. ITU-T Recomendation H.310. Formato: pdf. 1996. 49 Págs. 70 Los terminales H.310 RAST-1 que funcionan con AAL1 en modo nativo utilizan los protocolos H.222.1, G.711, H.262, y H.245 para la multiplexación, el audio, el video y el control, respectivamente. Su operación en el modo H.320/1 soporta todos los protocolos de H.321. Los terminales H.310 RAST-5 que funcionan con AAL5 en modo nativo utilizan los protocolos H.222.1, G.711, H.262, y H.245 para la multiplexación, el audio, el video y el control, respectivamente. Para su interoperación con los terminales de videoconferencia H.320 y H.321 utiliza los protocolos H.222.1 y H.245 para multiplexación y control, respectivamente. Y además, se requiere un Gateway en la red del usuario para interoperar con terminales H.320, H.321 y H.310 RAST-1. Los terminales H.310 RAST-1&5 son una combinación de los terminales RAST-1 y los RAST-5 y por ello soportan todos los cuatro modos de operación descritos anteriormente. Uso de AAL1 y AAL5. Existen dos maneras de acomodar los paquetes MPEG-2 en las celdas ATM. La primera es con el uso de AAL1 (ATM adaptation layer) con CBR para acomodar paquetes en chorros de 188 bytes (paquetes TS MPEG) en cuatro payloads de celdas ATM, con un byte de overhead por cada celda22 (ver figura 29). Los otros esquemas usan la capa de adaptación de datos AAL5 para acomodar uno, dos o mas paquetes TS 22 COFFEY, Gregory. Video over ATM networks. 2000. http://www.cis.ohio-state.edu/~jain/cis788- 97/video_over_atm/index.htm 71 MPEG (transport streams, paquetes de 188 bytes) en cinco, ocho o mas celdas ATM. El ATM Forum establece el uso de AAL5. Figura 26. Paquetes TS en celdas ATM usando AA1 Ventajas de H.310. La gran ventaja que ofrece la videoconferencia basada en el estándar H.310, es que provee una elevadísima calidad en la transmisión de audio y vídeo. Estas elevadas velocidades de transmisión ofrecidas por este estándar permiten el establecimiento de una videoconferencia con elevada interactividad entre los participantes. Aplicaciones como el establecimiento de procesos educativos y diagnósticos médicos donde existen expertos situados a distancia y donde el nivel de calidad de la videoconferencia debe ser máximo requieren del uso de este estándar. 3.2.6 Terminal para Comunicación Multimedia a baja Velocidad Binaria, H.324 Y H.324/M. Esta recomendación para transmisión de videoconferencia de la ITU-T fue 72 aprobada en 1996, pero su ratificación se dio definitivamente con la publicación de su segunda versión en febrero de 1998. El estándar H.324 define una metodología para su transporte a través de la red telefónica básica (RTB) ó lo que se conoce como POTS (Plain Old Telephone Systems). Específicamente describe las terminales para comunicaciones multimedia trabajando a bajas velocidades (típicamente menos de 64 Kbps), utilizando módems (V.34) a 33.6Kbps sin detección ni corrección de errores para evitar los retrasos debidos a retransmisiones. Estos terminales pueden transmitir voz, datos y vídeo en cualquier combinación en tiempo real. La calidad de audio y vídeo es más baja que la ofrecida por H.320 pero tiene los beneficios de ser una tecnología de bajo coste y que aprovecha red telefónica. Típicamente, las velocidades de transmisión en los enlaces de los POTS están en el rango de 28.8 Kbps a 56 Kbps. Estas bajas velocidades de transmisión sumadas a la naturaleza impredecible del medio de transmisión, restringen este tipo de videoconferencia a unos pocos cuadros por segundo. Sin embargo, el estándar H.324, tiene cierta aceptación entre el mercado de consumidores. Primero, porque este tipo de videoconferencia está orientada a aplicaciones recreacionales donde no se requiere de una elevada calidad y en segundo lugar debido a la facilidad de implementación donde sólo se requiere de un PC equipado con un módem y utilizar la red telefónica convencional (POTS). 73 Arquitectura de un terminal H.324 para videoconferencia. Los terminales H.32423 (ver figura 27) pueden ser integrados a computadoras personales o implementarse individualmente, como en videoteléfonos. Figura 27. Arquitectura de la Recomendación H.324 El audio en los sistemas H.324 se obliga al uso del estándar G.723.1. En lo que se refiere al video, una terminal H.324 para videoconferencias puede incorporar codificación H.261, pero la mayor parte de las implantaciones usan el H.263 (creado para conexiones por debajo de 64 Kbps), el cual es una versión escalable del H.261 que añade tres formatos de imágenes. El control de H.324 se lleva a cabo por medio del protocolo de control H.245, el cual esta basado en canales lógicos. H.245 describe el contenido de cada canal lógico cuando este se 23 INTERNATIONAL TELECOMMUNICATION UNION. ITU-T Recomendation H.324. 1998 74 encuentre abierto, es decir, cuando este activado para permitir los chorros de información generados por una determinada aplicación. Asimismo, este estándar proporciona procedimientos para la expresión de las capacidades del transmisor y el receptor, de forma que los transmisores se limiten a lo que los receptores pueden decodificar, y estos últimos puedan pedir un modo deseado particular a los transmisores. H.245 también es usado entre otras funciones, para enviar mensajes con el tiempo que existe entre el video transmitido y las señales de audio. Estos mensajes le permiten al receptor insertar en el audio el retardo adecuado o alternativamente omitir la sincronización y presentar el audio con mínimos retardos. El multiplexor H.223 mezcla los diversos chorros de información y el demultiplexor los extrae y los separa de los datos entrantes. La sincronización de los datos entrantes se lleva a cabo con las banderas de HDLC (HDLC es conocido como el protocolo de enlace de datos síncrono) en el inicio y el fin de la trama de datos. Cada trama multiplexada de unidad de datos HDLC puede llevar una mezcla de diferentes ráfagas en distintas proporciones, permitiendo la asignación dinámica del ancho de banda a los diferentes canales. La interfaz física a la RTB incluye un módem V.34 (Modem con velocidades de 28800 b/s o 33600 b/s) y la utilización del protocolo de la interfaz; el V.8 o el V.8bis, se usa para establecer la conexión entre los módems. El protocolo V.8 es propuesto como obligatorio por el estándar H.324 y el V.8 bis es el protocolo optativo, el cual se usa al inicio de la llamada para identificar el tipo del módem y modo del funcionamiento. Sin embargo, el 75 protocolo V.8bis es el más elegido ya que permite el cambio en cualquier momento de una llamada telefónica de voz normal a una llamada multimedia. Por ser el modem V.34 un dispositivo modulador/demodulador de datos síncrono, el estándar H.324 requiere una interfaz síncrona para la V.34. Por esto, la especificación V.80 de la ITU-T proporciona el protocolo entre el PC y el modem para realizar la sincronización sobre las interfaces RS-232 (medio asíncrono). Los terminales H.324 pueden utilizarse en configuraciones multipunto mediante MCUs (Unidades de Control Multipunto), y pueden trabajar en conjunto tanto con terminales H.320 en la RDSI como con terminales H.310, H.323 y con redes inalámbricas. Otros estándares de H.324 son los que se observan en la figura 28, correspondiente a la arquitectura de protocolos. Figura 28. Arquitectura de protocolos de un sistema H.324 Capa de aplicación Audio video Sistema de control Datos Capa de presentación G.723.1 H.263 H.261 H.245 T.120 Capa de sesión H.223, opcionalmente el SRP/LAPM V.14, LAPM Capa de transporte protocolo de control de error H.223 H.223 próximo (FEC+ARQ) Capa de red Capa de enlace de datos V.8/V.8 bis V.25 ter V.8/V.8 bis Capa física V.34 Modem 76 H.324/M. En 1998 se publico el estándar H.324/M, el cual, fue desarrollado por el SG16 (grupo de estudio 16) de la ITU-T. Para el diseño de este, se tomaron como base los sistemas H.324 para facilitar su interoperatibilidad entre las RTBs y las redes celulares móviles. Es así, como en esta norma añadieron técnicas para aumentar la robustez de estos terminales de videoconferencia. Dichas técnicas, comprenden la adición de un mecanismo de control de errores como una funcionalidad extendida de la recomendación H.223 de multiplexación. Como se puede observar en la figura 29, la diferencia de la arquitectura de capas de un sistema H.324 y un sistema H.324/M esta en el hecho de que para esta ultima la utilización de métodos de corrección de errores no es optativo. Figura 29. Arquitectura de protocolos del estándar H.324/M Capa de aplicación Audio video Sistema de Datos control Capa de presentación G.723.1 H.263 H.261 H.245 T.120 Capa de sesión H.223, protocolo de control de SRP/LAPM V.14, LAPM Capa de transporte error próximo (FEC+ARQ) H.223 H.223 Capa de red Estándares regionales Capa de enlace de datos Ancho de banda por demanda, por ejemplo protocolo de reserva multienlace, V.34 modem Capa física Radio portadores (Estándares regionales) Fuente: ROZADA, Jose. Nuevos estándares para comunicaciones multimedia. Venezuela. http://neutron.ing.ucv.ve/revista-e/No5/JRozada.html La implementación de los mecanismos de protección de errores H.223 y FEC+ARQ son necesarios para asegurar una mejor interoperabilidad con los sistemas 77 H.324/M para redes móviles celulares. El esquema de control de errores para H.324/M desarrollado por los Expertos del SG16 tiene varios niveles. El esquema no es exclusivamente pensado para las redes móviles, ya que fue desarrollado para ambientes los cuales son propensos a errores. Dependiendo del tipo terminal, el control del error puede apoyarse en niveles de 0 a 3. Todos los sistemas H.324 pueden trabajar al nivel 0 (sin la aplicación de ningún método de control de errores), pero bajo unas condiciones de red degradadas, en el cual la calidad de servicio (QoS) queda determinada por el BER del enlace del móvil, es decir, de 10-2 a 10-3. En el primer nivel, la sincronización se mejora por medio de la protección de las banderas de sincronización. En el nivel 2 se agrega robustez en los errores del encabezado de trama (overhead). El nivel 3 agrega una protección de errores a la carga útil (payload). En este nivel, los chorros de información multiplexados son tratados separadamente por algoritmos de corrección de errores diferentes. Esto proviene de del hecho de que la tolerancia permitida de errores es diferente para los distintos tipos de información que son multiplexados. Por ejemplo, el sonido es bastante tolerante al error debido al grado alto de redundancia, pero para los datos de una aplicación, un solo error podría ser fatal para su buen funcionamiento. Con respecto al video, este cae en el rango de estos dos extremos anteriores. Por su parte, el algoritmo de protección del errores del nivel 3 (FEC+ARQ) logra un BER de 10-6. Los niveles de protección de errores están incluidos en el protocolo de control H.245, con el cual los terminales negocian sus capacidades de protección de errores al principio de una 78 llamada. El usuario es libre de puede escoger el nivel que se adapta mejor a su entorno, ya que el rendimiento no se mejora necesariamente cuando se selecciona un nivel superior. La protección adicional de errores se logra a expensas del aumento del encabezado (overhead) de la trama. Esto trae consigo menos ancho de banda para la carga útil y la disminución de la calidad del video. 3.2.7 Videoconferencias sobre Redes Frame Relay. El estándar Frame Relay fue propuesto en 1984 por el mismo grupo de normalización que dio lugar a X.25 y RDSI: El Comité Consultivo Internacional para Telegrafía y Telefonía CCITT (Actualmente la ITU). Luego, la ANSI (Instituto americano de normalización) fue quien comenzó a definir los estándares preliminares que iban siendo también adoptados por la ITU. Frame Relay es una tecnología de conmutación de paquetes que permite paquetes de longitud variable para coexistir con aplicaciones sensibles al tiempo sobre un común enlace de red. Este usa circuitos virtuales (VCs) para establecer un camino de comunicación entre los clientes, normalmente usando un dispositivo de acceso Frame Relay (FRAD) o un Router de oficina remoto. El video es una aplicación sensible a retardos que necesita un ancho de banda constante para operar y, a diferencia de la multiplexación por división de tiempo que preasigna permanentemente el ancho de banda, Frame Relay usa el CIR (committed information rate) 79 que garantiza la entrega de paquetes y asegura el nivel requerido de rendimiento extremo a extremo. El CIR es un parámetro de dimensión de red específico de Frame Relay que permite a cada usuario elegir una velocidad media garantizada en los dos sentidos de la comunicación para cada circuito virtual ( CV). Otra característica que consolida el uso de Frame Relay es multicast. Esto se necesita para duplicar los datos a múltiples lugares que han sido seleccionados para recibir la información. Frame Relay es actualmente la tecnología de transporte mas común usada en redes de telecomunicaciones llevando aplicaciones de tráfico de datos, voz, y video (ver la figura 30) sobre un solo canal de datos, eliminando las costosas líneas rentadas que antes se utilizaban en videoconferencias24. Figura 30. Integración de servicios en Frame Relay. 24 ANDRANGO, Homero y FERNANDEZ, Maria. Videoconferencia sobre Frame Relay. Formato pdf. 2002. Pag 8. 80 Para realizar una llamada de videoconferencia Frame Relay, se requiere de un PVC (circuito virtual permanente) entre la unidad de llamada y el receptor de videoconferencia. Por medio de un dispositivo de acceso Frame Relay localizado en las instalaciones del cliente (FRAD, Frame Relay Access Device) se pude establecer la conexión lógica para una llamada de videoconferencia entre todos los puntos involucrados en el sistema de videoconferencia mediante los PVCs tal como se indica la figura 31. El FRAD es un dispositivo responsable de segmentar los datos en tramas con información de encabezado y cola (información de control) antes de entregarla a un nodo conmutador Frame Relay. En el extremo de recepción el FRAD descarta la información de control de manera que el dispositivo individual o puede estar incluido en un router, switch, multiplexar o dispositivos similares”. Figura 31. Videoconferencia multiservicio en Frame Relay 81 Parámetros críticos en la calidad de Servicio (QoS). En la transmisión del video digital existen dos parámetros técnicos que afectan la calidad de servicio. Uno de ellos es el jitter. El Jitter es la variación en retardo de una trama a otra ocurrido por la capacidad de Frame Relay de permitir tramas de longitud variable. Este fenómeno es crítico para la transmisión de video ya que se requiere un flujo de bits constante en orden para mantener una imagen. El jitter puede ocurrir en redes de tramas públicas cuando un switch intermedio procesa alguna trama cuando las demás llegan. Así, una trama que llega al switch es retenida en un buffer hasta que la transmisión de la primera trama se complete. El retraso que resulta depende de la longitud de la primera trama. Si el jitter excede la capacidad del dispositivo receptor para compensar el retardo por medio del buffer, la calidad del video se degradara. Sin embargo, para la mayoría de las redes públicas Frame Relay, el jitter es más un problema teórico que un problema real, ya que los servicios públicos se transmiten en backbones de alta velocidad. Asimismo, muchas redes publicas Frame Relay usan una arquitectura basada en celdas (longitud de tramas fija) entre nodos, el cual reduce la probabilidad de jitter. El segundo parámetro es la perdida de paquetes; si un paquete de video se pierde, puede producirse un ruido en el audio y algo de pixelation (Una imagen que tiene errores en los colores de los píxeles) en el video. La pérdida de los paquetes es una situación que depende de la capacidad de la red, de la carga real del tráfico en un momento dado, de cómo varía esta carga y de otros factores que están más allá del control del usuario final. 82 La única manera real de dimensionar bien una red es tener un CIR (bits transmitidos por segundo) suficiente que cubra el uso de todo trafico que pasara por la red Frame Relay. Para los usuarios de videoconferencias sobre Frame Relay, existen otras maneras de eliminar casi totalmente la amenaza de la perdida de tramas. La primera es la configuración del tamaño de la trama. Frame Relay permite ajustar la porción del payload de la trama a grandes o pequeñas cantidades de información. Esto facilita a los administradores de redes ajustar el tamaño de la trama a rendimientos óptimos de red. Las tramas pequeñas no llevan demasiada información por ello si se pierden, estas no llevan demasiada información como para impactar críticamente en la calidad del video. Sin embargo cuando se escogen la longitud de la trama se necesita considerar cuidadosamente otra variable: el retardo en la comunicación. La calidad de la voz y el video es susceptible a los retardos, los cuales se ven influidos por varios factores como el número de saltos entre conmutadores, el tipo de troncal desplegada (Frame Relay, ATM), distancia (regional, nacional, internacional), actividad de red y congestión (pocos usuarios, muchos usuarios, tipo de tráfico), y la compresión de voz y video (la codificación/decodificación incrementa el retraso). El segundo método es establecer un esquema de priorización del tráfico para cualquiera de los canales portadores de video a través de un FRAD sobre un DLCI definido. Esto asegura que las tramas de video salgan primero. Así, el buffer asegura que las trama de video, las 83 cuales son tolerantes a retardos, tengan prioridad sobre las tramas de datos las cuales si toleran usualmente algún retardo. Priorización. Cuando se realiza una sesión de videoconferencia, se da el concepto de priorización de servicios, en el cual el ancho de banda es asignado dinámicamente para otras aplicaciones como voz, datos o fax. Los fabricantes de FRAD implementan la priorización permitiendo a los usuarios la opción de definir niveles de prioridad (de 1 a 4 ó de 1 a 8) por DLCI. Sin embargo, como la longitud de las tramas de voz, de datos y de video no son iguales, es necesario contar con un mecanismo de nivelación capaz de asegurar que las tramas de video y voz tengan las mismas oportunidades de entrar en la red. Una solución sencilla sería asignar un DLCI por cada puerto del FRAD y fijar diferentes niveles de prioridad para los puertos de video, voz y de datos. Pero, aunque económicamente factible en una red privada, esta solución resulta costosa en una red pública, ya que a los usuarios se les factura según el número de PVCs (DLCIs). Idealmente, lo mejor sería combinar todo el tráfico de video, voz y datos en un sólo PVC (DLCI), pero los conmutadores de red sólo priorizan por PVC (DLCI). Así, los usuarios pueden evitar esta limitación enviando el tráfico de video y otros tráficos sensibles al tiempo, por un PVC (DLCI) y el tráfico LAN por otro. Arquitectura de Frame Relay. La estructura de una trama Frame Relay (ver figura 32) esta formada por: 84 • Indicador de Comienzo o final de Trama: El indicador o Flag delimita el comienzo o final de un paquete. • Campo de Dirección: También conocido como cabecera (header), contiene información de direccionamiento y la escasa gestión de control de flujo que Frame Relay realiza. Este campo tiene dos subcampos: 1. Identificador de conexión de enlace de datos (DLCI): Esta es la conexión lógica que se encuentra multiplexada en el canal. 2. Apropiada para descartar: (Discard Eligibility, DE), Indica si la trama puede ser descartada en el caso de una congestión. • Campo de datos de usuario: En este campo de información se transmiten los datos "útiles" del usuario, que están contenidas en el paquete. Su tamaño es generalmente de 4 K o inferior. • Secuencia de verificación de Trama, FCS (Frame-check Secuence): Es un campo de dos bytes que contiene la suma de comprobación para determinar si el campo ha sido dañado durante la transmisión, permitiendo la correcta transmisión y la futura retransmisión o recuperación de errores de la trama. Figura 32. Estructura de una trama Frame Relay 85 El estándar Frame Relay permite al proveedor de servicios de la red controlar la congestión simplemente disponiendo de cualquier trama que exceda el CIR de los usuarios. En otras palabras, si se contrata un CIR de 128 Kbps pero se envía ráfagas de 192 Kbps, así, las tramas que excedan los 128 Kbps de CIR tendrían un bit DE (Discard Eligible), el cual indica que la trama se descartaría en caso de congestión. Ventajas de Frame Relay. Entre las ventajas que proporciona Frame Relay están: • Frame Relay requiere menos hardware que los circuitos dedicados, cuesta menos y ofrece más ancho de banda. • Puede soportar ráfagas de ancho de banda muy superiores y manejar velocidades desde 56 Kbps hasta incluso 2 Mbps. • Los beneficios para la empresa son económicos y de funcionalidad, porque ahorra dinero en facturas telefónicas y porque todo el tráfico de video, voz, fax y datos de las sucursales u oficinas de la empresa puede ser integrado y transmitido sobre la misma línea digital. Desventajas de Frame Relay: • La estrategia de descarte. Uno de los principios básicos del protocolo de Frame Relay es: si hay un problema con una trama, se ignora y se descarta. Si ocurren muchos problemas, un número significativo de tramas serán descartadas y el sistema de destino final tendrá que encargarse de recuperar la situación. • Control de la congestión. Una vez que ocurre una congestión, la única manera de frenar el problema es descartar tramas. Estas tramas descartadas serán solicitadas por el otro 86 extremo para ser reenviadas, lo que provoca una mayor demanda de ancho de banda y provoca una mayor congestión. Más aún, un dispositivo puede ignorar esta notificación de congestión y continuar enviando datos. Así pues la congestión aumentará rápidamente. 3.3 ESTANDARES DE CODIFICACION DE VIDEO El problema de la codificación de vídeo es básicamente una cuestión de supresión de redundancia y de eliminación de información. Los algoritmos de compresión de vídeo reducen la capacidad desde el orden de los 160Mbps (información de video no comprimido) hasta anchos de banda inferiores a 10 Mbps, llegando incluso hasta algunas decenas de Kbps. Para ello, los diferentes estándares de compresión de vídeo utilizan una diversidad de algoritmos con este fin, algunos basados en el mecanismo de percepción visual humana. De forma general, se pueden agrupar en una serie de pasos que, una vez realizados, conducirán a la obtención del chorro de bits o señal de vídeo comprimida. La figura 33 muestra el proceso de transmisión de video25, en el cual se desarrolla a partir de la captura de las imágenes por la cámara, luego para por los procesos de muestreo, conversión de formato y digitalización, compresión, armado de paquetes y por ultimo llega al proceso de transmisión. 25 GONZALEZ, Agustín. Transmisión de audio y video en Internet. Universidad Técnica Federico Santa Maria. Formato: pdf. Pág. 13. 87 Figura 33. Proceso de transmisión de video La codificación de video introduce varios conceptos que es bueno saber: • Luminancia: la luminancia contiene toda la información relacionada con la mayor o menor luminosidad de la imagen y no contiene ninguna información acerca de los colores de la misma. Reproduce por lo tanto, la imagen en blanco y negro en todas sus tonalidades de grises intermedios. • Crominancia: la crominancia, por el contrario, contiene todo lo relacionado con el color de los objetos, separada en los tres colores básicos (Verde, Azul y Rojo). • Redundancia espacial: ocurre porque en un cuadro individual los píxeles cercanos (contiguos) son muy parecidos (por ejemplo, en una imagen que muestre un prado verde bajo un cielo azul, los valores de los píxeles del prado serán muy parecidos entre ellos y del mismo modo los del cielo). • Redundancia temporal: La redundancia temporal ocurre debido a la similitud de los píxeles en cuadros consecutivos de una señal (si la señal de video fuera un recorrido por el prado, entre una imagen y la siguiente abría un gran parecido). • Redundancia psicovisual: se debe a que el sistema de visión humano no trata toda la 88 información visual con igual sensibilidad (por ejemplo, el ojo es más sensible a cambios en la luminancia que en la crominancia). El ojo es también menos sensible a las altas frecuencias. Por lo tanto, un criterio que toma mucha importancia es estudiar como percibe el ojo humano la intensidad de los píxeles para así, dar mayor importancia a unos u otros parámetros. • La redundancia en la codificación: Ocurre debido a que no todos los parámetros ocurren con la misma probabilidad en una imagen. Por lo tanto resulta que no todos necesitarán el mismo número de bits para codificarlos. 3.3.1 Codec de Vídeo para Servicios Audiovisuales a p x 64 Kbps, H.261. Es el primer estándar para la codificación y transmisión de secuencias de vídeo digital para redes de telecomunicación elaborado por la ITU en 1990 (versión modificada en 1993). H.26126 es un formato de compresión de vídeo para ser usado en canales que vayan de 64Kbps a 2 Mbits, medido en intervalos de 64Kbps. También llamado px64 donde p es un rango comprendido entre 1 y 30 (los múltiplos que puede tener un canal B de RDSI), con una calidad de video que permite su utilización desde videotelefonía cara a cara hasta servicios de videoconferencia en pleno movimiento (actualmente una imagen en movimiento que se transmita a una velocidad de 384 Kbps ó mayor es catalogada como una imagen de buena calidad, aunque ésta velocidad puede bajar a 128 Kbps e incluso hasta a 64 Kbps). La compresión se basa en la utilización de la transformada DCT (Discrete Cosine Transform) 26 INTERNATIONAL TELECOMMUNICATION UNION. ITU-T Recomendation H.261. 1993 30 Págs. 89 para disminuir la redundancia espacial de las imágenes y en el uso de esquemas de codificación basado en las diferencias entre cuadros. H.261 define dos resoluciones de imagen; CIF (Common Intermediate Format) con una resolución de 352 x 288 y QCIF (Quarter CIF) con una resolución de 176 x 144. Esta última es de obligada implementación en los terminales H.320. Sin embargo, la resolución CIF, aun siendo opcional, es la más utilizada por tener una calidad de imagen notablemente superior. 3.3.2 Codificación de Vídeo para Comunicación a baja Velocidad Binaria, H.263. El grupo de estudio 15 de ITU, que desarrolló el estándar H.261, continuo sus trabajos con objeto de obtener un estándar nuevo que, aumentando la compresión, permita la comunicación audiovisual usando redes de menor ancho de banda como la RTB (H.324), la RDSI (H.320) y las redes celulares (H.324/M), así como en redes sin calidad de servicio garantizado (H.323). Así, en 1996 se terminó una primera versión del estándar de codificación de vídeo H.26327. El estándar de compresión H.323, fue desarrollado para aplicaciones de videoconferencia a muy bajo caudal (hasta 64Kbps a partir del estándar H.261). Su uso esta destinado en 27 INTERNATIONAL TELECOMMUNICATION UNION. ITU-T Recomendation H.263. 1996. 52 Págs. 90 especial a la transmisión de video sobre las redes telefónicas existentes. Las características principales del estándar H.263 son: • Aumento de la eficiencia de compresión y del tipo de formatos, a fin de permitir una calidad de vídeo razonable en redes de baja capacidad. • Baja complejidad, lo que posibilita implementaciones de bajo coste (incluso basadas exclusivamente en software, aprovechando la potencia de cálculo de la última generación de procesadores de uso general). • Bajo retardo (requisito imprescindible en comunicaciones en tiempo real). La nueva recomendación de video, el estándar H.263, es un superconjunto de la recomendación H.261, ya que esta además de soportar los formaos de imagen CIF y QCIF, contempla otros: 16CIF (1408x1152), 4CIF (704x576), y sub-QCIF, que es de 128x64. Además, la reducción de la redundancia temporal (regiones de píxeles que no varían) tiene en cuenta no solo los fotogramas pasados si no también los futuros (los llamados cuadros B) mediante el uso de buffers. También aumenta el tamaño de la región a explorar para encontrar el macrobloque (grupos de bloques de imágenes). En la Tabla 428 se muestran cada uno de los formatos de imagen, con los tamaños en píxeles y el soporte por el estándar H.261 y H.263. 28 DATA BEAM CORPORATION. A primer on the H.323 series Standard. 1997. http://www.packetizer.com/iptel/h323/papers/primer 91 Tabla 4. Soporte de los formatos de videoconferencia por H.261 y H.263 Formato de imagen en Tamaño de Imagen Estándar Estándar la Videoconferencia (en Píxeles) H.261 H.263 Sub-QCIF 128 x 96 N/A Obligatoria QCIF 176 x 144 Obligatoria Obligatoria CIF 352 x 288 Opcional Opcional 4CIF 704 x 576 N/A Opcional 16CIF 1408 x 1152 N/A Opcional Fuente: DataBeam Corporation. A Primer on the H.323 Series Standard. 1997. http://www.cs.ucl.ac.uk./staff/jon/jip/h323/h323_primer.html 3.3.3 Estándar Genérico de Codificación de Imágenes en Movimiento MPEG-2, H.262. El estándar de codificación de video H.262 (Moving Picture Experts Group) ó MPEG-2, es una extensión del estándar MPEG-1, el cual maneja un amplio rango de aplicaciones, velocidades y resolución calidades de las señales, incluyendo todas las formas de medios de almacenamiento digital, televisión (incluyendo HDTV), broadcasting y comunicaciones. El MPEG-2 fue diseñado por la ISO/IEC en conjunto con la ITU-T en 1995 para operar en un rango de 2 a 15 Mbps. Sin embargo puede funcionar a velocidades superiores de 100 Mbps. Así, debido a su alta calidad en la transmisión de video, MPEG-2 fue establecido como el principal protocolo usado para la transmisión de video sobre redes ATM. MPEG-2 es un conjunto de herramientas de que configuran varios algoritmos de 92 compresión de video, y por lo tanto de diferentes calidades, para integrarse en una única sintaxis capaz de aplicarse a los requerimientos de diferentes codificadores de video o a distintas redes de transmisión. Para definir los subconjuntos de herramientas de compresión, se añadieron los conceptos de nivel y perfil. Un perfil es básicamente el grado de complejidad esperada en la codificación, mientras que un nivel describe parámetros como el tamaño de la imagen, la resolución de esta o la velocidad de transferencia de bits usada en ese perfil. En la figura 37 se muestran cada uno de los perfiles y niveles que establece MPEG-2 para la codificación del video29. Figura 34. Niveles y perfiles de la codificación de video MPEG-2 29 COMPRESION DE VIDEO EN EL ESTANDAR MPEG-2. http://www.fuac.edu.co/autonoma/pregrado/ingenieria/ingelec/proyectosgrado/compresvideo/MPEG5.htm 93 En principio, hay 24 combinaciones posibles, pero no todas están definidas. Cuando un codificador MPEG entrega un perfil y un nivel determinado, debe además ser capaz de decodificarlo a perfiles y niveles inferiores, es decir cada perfil define una nueva colección de parámetros de codificación que se añaden a los del perfil inferior. Esta recomendación utiliza algoritmos para la compresión de la información basados en la DCT (transformada discreta del coseno) y en la compresión del movimiento (Motion Compensation), similares a los de MPEG-1. La compensación del movimiento consiste en la comparación de imágenes en bloques de 16x16 píxeles con bloques equivalentes. Si son similares se obtiene una buena compresión. Pero si se detecta movimiento en el bloque, se almacena un "vector de movimiento". MPEG-2 incluye la posibilidad de codificar TV de alta definición (HDTV). Además, debido a la definición de los niveles y perfiles, este estándar también admite la opción de escalabilidad en resolución y en relación S/N, según la capacidad del codificador o de la red de transmisión en la cual se va a transmitir. El objetivo de la escalabilidad es proporcionar interoperatibilidad entre diferentes servicios y soportar flexibilidad en cuando a receptores con capacidades diferentes de visualización. Por ejemplo, pueden existir receptores que no sean capaces de reconstruir la señal de video con toda su resolución, y entonces decodifica un subconjunto de las capas en las que se codifica el flujo de bits, mostrando la señal de video con una resolución espacial o temporal 94 menor o con menor calidad. 3.4 ESTANDARES DE CODIFICACION DE AUDIO El audio es una señal analógica, la cual, para poder transmitirla a través de las redes de comunicaciones, hay que convertirla a digital para que pueda ser transmitida por canales con bajos anchos de banda. Los pasos que se siguen en el proceso de transmisión de una señal de audio son: Filtro pasabanda: limita el rango de frecuencia que se desea muestrear y reducir así los bits necesarios para digitalizar la señal analógica. Muestreo: convierte la señal analógica en una señal de valores discretos. Conversión análogo/digital: se realizan los procesos de cuantificación y codificación. Compresión: técnicas para reducir las redundancias en la voz con el fin que transmitir menos datos a la red. Confección de paquetes: Se realiza el armado de los paquetes a transmitir por la red de comunicaciones. 3.4.1 Modulación por Impulsos Codificados (MIC) de Frecuencias Vocales, G.711. Esta es la recomendación más antigua de la ITU (1972), describe las características de un sistema de codificación de audio de 4KHz usando una velocidad de transmisión de 56 Kbps 95 o 64Kbps, utilizando cualquiera de los métodos PCM30 (Pulse Coded Modulation), ya sea la ley A (para Europa) o la ley u (para USA). Se utiliza para voz, la cual es muestreada a 8KHz (es decir, cada 125uS) y codificada con 8 bits/muestra para una velocidad de 64Kbps. La técnica de modulación de impulsos codificados (PCM) permite la conversión de señales de audio análogas provenientes de micrófonos a digitales mediante tres procesos fundamentales descritos a continuación: muestreo, cuantificación y codificación. Muestreo. Si se quiere enviar una señal de frecuencia máxima "f" de un punto a otro, no es necesario transmitir la señal completa, siendo suficiente la transmisión de "muestras" de la señal, tomadas como mínimo a una velocidad doble de la frecuencia máxima de la señal (teorema de Nyquist). Así, para transmitir una señal de voz, con fmax de 4 KHz, deben tomarse muestras a 8 KHz (una muestra cada 125uS). En estas condiciones se puede reconstruir la señal original. Cuantificación. Las muestras obtenidas en el proceso de muestreo no se envían a la línea directamente, ya que podrían verse distorsionadas por ruido si así se hiciera. Por el contrario, las muestras se cuantifican, es decir, se comparan con una escala de la que se obtienen los valores cuantificados a enviar. La adopción de escalas no lineales con escalones más amplios en la parte de las amplitudes grandes, y más cerrados en los de las 30 INTERNATIONAL TELECOMMUNICATION UNION. ITU-T Recomendation G.711. Formato: pdf. 1972. 12 Págs. 96 más pequeñas hace que el error de cuantificación (debido a la diferencia existente entre el valor real de la muestra y el del valor de la escala que lo suplanta) ante señales de poca amplitud (los más probables en la señales de voz) dé lugar a una relación señal a ruido muy favorable para esas muestras. Es así como se establece la ley A o ley de 13 segmentos (para Europa) y la ley u o ley de 15 segmentos (para USA). Codificación. La codificación es el proceso mediante el cual se representa una muestra binaria por medio de ceros y unos. Un código PCM utiliza 8 bits para representar el signo (un bit), el segmento (tres bits) e intervalo (4 bits) al cual pertenece una muestra según las leyes A y µ. La técnica PCM aplicada a un canal de audio muestrea la señal cada 125uS, cuantifica las muestras y las codifica en ocho bits convirtiéndolas en un canal de datos con el que se transmiten ocho bits cada 125uS = 64Kbps. 3.4.2 Codificación de Audio de 7 KHz dentro de 64 Kbps, G.722. Este estándar de la ITU publicado en el año de 1988 es similar al G.711, pero utiliza la técnica ADPCM (Adaptive Differential PCM), es decir, no codifica el valor de la muestra sino la diferencia con el valor anterior de la muestra (como la voz una señal analógica continua, entre un valor y el siguiente habrá muy poca diferencia) que se puede codificar con menos bits al ser una diferencia muy pequeña. Así, en este estándar se muestrea la señal a 16 KHz y se codifica con 4 bits (a diferencia de los 8 utilizados en PCM), consiguiendo tener 16 posibles valores de cuantificación de la señal y obteniendo así mayor calidad en los 64Kbps 97 que con el estándar G.711. En aplicaciones de videoconferencias G.722 que hace posible codificar señales con ancho de banda de hasta 7KHz a velocidades desde 48 a 64Kbps. La calidad del audio conseguida con este estándar es similar a la de una radio AM, por lo que se prefiere su utilización en aplicaciones de videoconferencias con conexiones de redes mayores de 384Kbps. 3.4.3 Códec de Voz de Doble Velocidad para la Transmisión en Comunicaciones Multimedia a 5,3 y 6,3 Kbps, G.723.1. El estándar G.723.1 de la ITU-T publicado en 1995 describe el proceso de codificación y compresión de señales de voz de frecuencias comprendidas entre 50 Hz y 7KHz en canales de 5.3 y 6.3Kbps. El uso del estándar G.723 para la codificación de audio conduce a una mayor disponibilidad y por ende mayor calidad en transmisión y recepción de vídeo y datos, ya que este utiliza un menor ancho de banda para la transmisión. 3.4.4 Codificación de Señales Vocales a 16 Kbps Utilizando Predicción Lineal con Excitación por Código de bajo Retardo, G.728. Este estándar de la ITU publicado en 98 1992 se basa en fórmulas matemáticas para reproducir, modelar o aproximar el espectro de la señal de voz y lo que codifica son los parámetros predictores (por ejemplo ganancias y frecuencias) utilizados en esas fórmulas para los que sólo son necesarios 2 bits con los que se consigue sólo 4 niveles de cuantificación para la señal con 16 Kbps. G.728 es muy útil para videoconferencias a velocidades inferiores a 256 Kbps, ya que permite un mayor ancho de banda para video. 3.4.5 Codificación de la Voz a 8 Kbps mediante Predicción Lineal con Excitación por Código Algebraico de Estructura Conjugada, G.729. El estándar de la ITU-T G.729 publicado en el año de 1995, es un estándar de codificación de voz internacional que se adapta muy bien a la compresión de los flujos de estándar de 64 Kbps de los canales PCM usados típicamente para la transmisión de voz, consiguiendo un resultado tan bajo como 8 Kbps. 3.4.6 Codificación de audio MPEG-1, 2. Los estándares MPEG de audio utilizados para la codificación de voz son los siguientes: MPEG-1: Codificación de imágenes en movimiento y audio asociado para medios de almacenamiento digital hasta 1.5 Mbps. MPEG-2: Codificación genérica de imágenes en movimiento e información de audio 99 asociada. MPEG-1. La codificación de audio de MPEG-1 ofrece una reproducción con calidad subjetiva equivalente a la del CD (16-bit PCM). El sistema que describe esta norma ISO es el siguiente: Codificación: el codificador procesa la señal de audio digital y produce el chorro de bits empaquetado para su almacenamiento y/o transmisión. Decodificación: el decodificador debe procesar el chorro de bits para reconstruir la señal de audio digital. Así, los datos son desempaquetados para recuperar las diversas partes de la información y transformar las muestras de la señal de voz nuevamente a PCM. Modos: hay cuatro modos de funcionamiento: - Single channel o canal único: una señal en un solo chorro de bits. - Dual channel o canal doble: dos señales independientes en un mismo chorro de bits. - Stereo: como el anterior, pero perteneciendo las señales al canal izquierdo y derecho de una señal estéreo original. - Joint stereo: como el anterior, pero aprovechando ciertas características del estéreo como la redundancia de datos, lo que le permite reducir la tasa de bits. MPEG-1 Audio soporta frecuencias de muestreo de 32, 44.1 y 48 KHz y velocidades binarias entre 32 Kbps (mono) y 448 Kbps, 348 Kbps y 320 Kbps. Cabe destacar que las tramas MPEGs son autónomas: cada trama contiene toda la 100 información necesaria para su decodificación, por tanto, cada una de ellas puede ser decodificada independientemente de las tramas anteriores, lo que define un punto de partida para aplicaciones de almacenamiento y edición de audio. La longitud de las tramas tampoco es fija, sino que depende de: - La longitud del campo principal de información, el cual depende de la velocidad binaria y de la frecuencia de muestreo. - Estructura múltiplex. El campo variable de las tramas MPEG es fragmentado en paquetes. La estructura de los paquetes consta de 188 bytes, de los cuales 4 son de cabecera, y los 184 restantes de carga. La cabecera incluye un byte de sincronismo, y un campo de 13 bits llamado identificador de paquete, el cual informa al decodificador sobre el tipo de datos, e información adicional. MPEG-2. La segunda fase del MPEG, llamado MPEG-2, incluye en su parte de audio dos estándares de codificación de audio multicanal; ambos son compatibles con MPEG-1, uno hacia delante y otro hacia atrás. La compatibilidad hacia delante significa que un decodificador multicanal en MPEG-2 es capaz de decodificar señales MPEG-1 mono o estereofónicas; la compatibilidad hacia atrás significa que existen decodificadores estéreo MPEG-1, los cuales sólo manejan dos canales de audio y son capaces de reproducir una señal estéreo básica desde una trama multicanal MPEG-2 para servir la necesidad de los usuarios con equipos mono o estéreo. 101 3.5 ESTANDARES DE COMPARTICION DE DATOS 3.5.1 Protocolos de Transmisión de Datos para Conferencias Multimedia, T.120. La serie de normas T.12031 es la base para compartir datos, aplicaciones y pizarra electrónica, etc. entre los participantes de la videoconferencia. El T.120 básicamente se encarga de especificar los requisitos para el intercambio de datos en videoconferencia, rige la distribución de archivos e información gráfica en tiempo real, de manera que se perciban en forma eficaz y fiable durante el intercambio de múltiples medios en conferencias multipunto independientemente de la red y de las plataformas utilizadas. Con T.120: los datos pueden ser distribuidos en tiempo real a cada uno de los participantes, existe la interoperabilidad entre equipos de distintos fabricantes, se asegura la integridad de los datos y es independiente de la red (RTB, Ethernet, RDSI, ATM etc.) y de la plataforma utilizada (Unix, PC, MAC,...). La T.120 no es tan sencilla, esta compuesta de las siguientes recomendaciones: • T.122: Servicio de datos genérico orientado a conexión que une varias comunicaciones punto a punto para formar un dominio multipunto. Entre otras cosas, proporciona difusión de datos con control de flujo, direccionamiento multipunto, busca el camino mas corto entre estaciones, etc. 31 INTERNATIONAL TELECOMMUNICATION UNION. ITU-T Recomendation T.120. Formato: pdf. 1996. 24 Págs. 102 • T.123: Esta recomendación define los protocolos de transporte que deben usarse para cada tipo de red. Consta de: un nivel de enlace (según la recomendación Q.922) que proporciona un método de transporte libre de errores, un nivel de red (basado en la recomendación Q.933) para realizar el establecimiento y liberación de las distintas conexiones y un nivel 4 (X.224 clase 0) que lleva a cabo las funciones de segmentación y secuenciamiento de los datos. • Multipoint Communications Service (MCS): Este protocolo, definido en las recomendaciones T.122/T.125 (Protocolo de servicio de comunicación multipunto), dota al modelo T.120 de la característica multipunto. Permite enviar datos a uno, a todos o a un subconjunto de los nodos participantes en una misma conferencia, ya que se dispone de hasta 4 niveles de prioridad. Ofrece también mecanismos para unir dos conferencias distintas en una sola. • Generic Conference Control (GCC): La recomendación T.124 define un conjunto de servicios para el control de conferencias multipunto en las que participan terminales audiográficos y audiovisuales. Realiza las funciones de: creación (establecimiento y terminación de conferencias), gestión de la información relativa a los nodos participantes en las conferencias, gestión de la información referente a las aplicaciones y sus capacidades, coordinación de la moderación de la conferencia, seguridad de la conferencia mediante claves de acceso, etc. • Node Controller: La misión de este módulo es responder a aquellos eventos GCC que éste no puede manejar automáticamente, y que a menudo requerirán la intervención del usuario. La mayor parte de estos eventos están relacionados con el establecimiento de 103 conferencias, adición o eliminación de nodos de una conferencia, etc. Por ejemplo, cuando un nodo remoto invita al nodo local a unirse a una conferencia, normalmente se requerirá una respuesta del usuario aceptando o rechazando dicha invitación. Solamente existe un Node Controller por cada nodo, por lo que debe estar accesible a todas las aplicaciones que residan en él. • T.128: Control audiovisual para sistemas multimedia multipunto. Controla el manejo de canales de audio y video en tiempo real dentro de una videoconferencia. • Protocolos de aplicación: En la serie de recomendaciones T.120 es posible la coexistencia de Protocolos de Aplicación Estándar (PAE) y no estándar (PANE). Todos ellos utilizan los servicios proporcionados por los niveles MCS y GCC. Como aplicaciones estándares T.120, cabe mencionar las siguientes recomendaciones: • T.127: También conocida como Multi-point Binary File Transfer (MBFT), especifica mecanismos para realizar transferencias de ficheros en una configuración multipunto. Puede haber simultáneamente varias transferencias de ficheros y se pueden especificar niveles de prioridad para su distribución. • T.126: También conocida como Still Image Exchange and Annotation (SI), hace posible transferir y visualizar imágenes fijas, así como un puntero y, además, realizar anotaciones sobre ellas (pizarra electrónica). 104 3.6 ESTANDARES DE CONTROL 3.6.1 Señales de Control e Indicación con Sincronismo de Trama para Sistemas Audiovisuales, H.230. La recomendación H.230 es la encargada de establecer el modo de realizar el refresco de las imágenes y la conmutación entre audio y vídeo en una multivideoconferencia. Asimismo, define las señales de control y de indicación relacionadas con el vídeo, audio, gestión y el multipunto de una conferencia, y especifica, además, una tabla de códigos con las circunstancias bajo las cuales los códigos de control y de indicación son obligatorios u opcionales. 3.6.2 Sistema para el Establecimiento de Comunicaciones entre Terminales Audiovisuales con Utilización de Canales Digitales de hasta 2 Mbps, H.242. El estándar H.242 establece la coordinación por medio de definición de los protocolos para la negociación y establecimiento de videoconferencias entre las terminales a través de canales digitales de hasta 2 Mbps. Como las características y recomendaciones de audio y video que soporta cada terminal son distintas, H.242 también se encarga de negociar las mejores características que se deben 105 mantener durante la videoconferencia. 3.6.3 Protocolo de Control para Comunicación Multimedia, H.245. El estándar de control H.24532 (protocolo de control para comunicaciones multimedia) permite a las terminales compatibles H.323 conectarse unas con otras mediante mensajes de control sobre el modo de trabajo del equipo H.323. La norma H.323 hace uso de los procedimientos de señalización de los canales lógicos contenidos en la norma H.245. Estos procedimientos se proporcionan para fijar las prestaciones del emisor y receptor, apertura y cierre de canales lógicos, el establecimiento de la llamada, intercambio de información, terminación de la llamada y como se codifica y decodifica. Por ejemplo, cuando se origina una llamada telefónica sobre Internet, los dos terminales deben negociar cual de los dos ejerce el control, de manera tal que sólo uno de ellos origine los mensajes especiales de control. 3.7 ESTANDARES DE MULTIPLEXACION 3.7.1 Estructura de Trama para un Canal de 64 a 1920 Kbps en Teleservicios Audiovisuales, H.221. Esta norma describe la estructura de trama en la que se multiplexan 32 INTERNATIONAL TELECOMMUNICATION UNION. ITU-T Recomendation H.245. Formato: pdf. 2002. 327 Págs. 106 las señales de vídeo, audio, datos y control codificadas para ser transmitidas a través de uno o más canales B a 64Kbps. Esta trama audiovisual permite multiplexar, en los canales B utilizados, los siguientes tipos de información: • Señales de audio y video codificadas mediante los estándares descritos. Estas señales constituyen un tráfico continuo y exigen, tal como se ha comentado, su transmisión en tiempo real. • Señales de datos transparentes, que se transmiten de extremo a extremo sin realizar ningún control sobre los mismos. • Señales de datos con protocolo multicapa, donde el sistema envía los datos sobre una pila de protocolos estándar, definida en la serie de recomendaciones T.120. Estos datos corresponden a aplicaciones tales como: transmisión de imágenes fijas, transmisión de archivos, pizarra compartida, edición común, etc. • Señales de control del sistema. Permiten definir las velocidades binarias de las distintas clases de datos, negociar y establecer el modo común de operación, realizar controles básicos de la conferencia, etc. La trama H.221 dispone de un canal de señalización permanentemente abierto para transportar estas señales (de uno o dos bytes de longitud) a una velocidad de 800bps. Es posible realizar dinámicamente cambios en el ancho de banda de transmisión ocupado por cada medio. Por ejemplo, las señales de datos pueden existir sólo ocasionalmente, cuando se necesiten (como en el caso de transmisión de un fichero o de una imagen fija) y pueden ocupar temporalmente la totalidad o una parte del ancho de banda utilizado por la señal audiovisual. 107 3.7.5 Protocolos de Señalización de Llamada y Paquetización de Trenes de Medios para Sistemas de Comunicación Multimedia por Paquetes, H.225.0. El estándar H.225.033 da formato a los datos, audio, vídeo y flujos de control para transmitirlos a la interface de red, este asimismo también realiza el proceso contrario; recupera los datos, audio, vídeo y flujos de control recibidos en la interface de red. Además realiza el entramado lógico, la numeración de secuencias, y la detección y corrección de errores de forma apropiada a cada tipo de datos. Sus tareas más importantes son: • Definir la forma de empaquetar el vídeo, el audio y los datos en bits o paquetes para su transmisión por la red. • Determinar el orden de los paquetes. • Detectar errores que puedan producirse en la transmisión. • Llevar a cabo las tareas de registro, admisión y control del canal de señalización RAS que realiza las conexiones entre el Gatekeeper y los demás componentes. 33 INTERNATIONAL TELECOMMUNICATION UNION. ITU-T Recomendation H.225.0. Formato: pdf. 19798. 155 Págs. 108 4. SITUACION ACTUAL Y TENDENCIAS DE LOS SISTEMAS DE VIDEOCONFERENCIA Mientras que los requerimientos de transmisión para todos los niveles de comunicaciones de datos se han venido abajo, los mejoramientos en la tecnología de compresión han producido video de calidad con requerimientos de ancho de banda menores. El crecimiento del mercado de la videoconferencia ha sido centrado en estos requerimientos mínimos asociados con el crecimiento de los servicios públicos digitales. En 1.992 existían cerca de 8.000 sistemas de videoconferencia grupal instalados en todo el mundo, tres cuartas partes tan sólo en los Estados Unidos. Desde entonces, con el progreso de la electrónica el crecimiento de esta cantidad se ha visto aumentado llamativamente. Las tecnologías que se avistan en el horizonte como el videoteléfono y computadoras que incluyen dispositivos de videoconferencia, continuarán introduciendo el video digital comprimido dentro de nuestras actividades diarias. Es un campo creciente y excitante lleno de nuevas oportunidades como el teletrabajo. Las videocomunicaciones se están desplazando desde la sala especial hacia el escritorio y el vehículo que acelera este desplazamiento es la computadora. Para los ejecutivos de negocios, su terminal conectada localmente por una red de área local de banda ancha y a través del mundo utilizando video comprimido hace posible el contar con una ventana con 109 video en tiempo real en la pantalla de su computadora. 4.1 LA VIDEOCONFERENCIA EN LA FORMACION ACADEMICA Enseñar a través de videoconferencia34 supone un cambio en cuanto a la metodología tradicional aplicada en los sistemas presenciales de enseñanza. Esta nueva tecnología necesita formas distintas de interacción, diferente comportamiento físico, distintas maneras de presentar la información y diferentes formas de juzgar los mensajes que se puedan transmitir en ambas direcciones. Entre los elementos que un profesor debe contemplar para el desarrollo de una videoconferencia están: Antes de la videoconferencia: Tiene que planificar y ensayar la presentación., familiarizarse con el equipo y los diferentes medios que utilizará (proyector de acetatos, videobeam, etc.) y prestar especial atención al tiempo establecido para la presentación. Durante la videoconferencia: Hablar claro e intentar mantener un volumen constante, evitar el uso de imágenes, gráficos, etc. de baja calidad, exponer claramente cada una de las áreas del tema, hacer constantes resúmenes de cada unidad temática y formular preguntas para involucrar a toda la audiencia (participación de alumnos de cada una de las aulas). Aspectos técnicos que hay que prever en una videoconferencia educativa: 34 RIBAS, Miguel. La videoconferencia en el campo educativo, técnicas y procedimientos. Universidad de las Islas Baleares. 1995. http://www.uib.es/depart/gte/edutecs.html 110 - Pantallas. El número de estudiantes por pantalla debe de estar acorde con el tamaño de éstas, por ejemplo: un monitor de 25" puede servir para unos 25 estudiantes. - Iluminación. Es importante cuidar la iluminación de la sala, de tal manera que todos los participantes de la videoconferencia se vean perfectamente a través de los monitores. - Elaboración de planes de contingencia para prever aspectos técnicos. En el proceso enseñanza-aprendizaje impartido mediante una videoconferencia, están involucrados integrantes de la comunidad universitaria, como el coordinador, el profesor, el estudiante y el técnico, cuyas funciones son las siguientes: Coordinador: Es el responsable de la organización académica y técnica del evento. Realiza la planeación, la elaboración del programa general, adaptación, reproducción y distribución de los materiales y facilidades del uso de la sala. El Profesor: es el responsable de la planeación y elaboración de los materiales para la videoconferencia, así como de la organización de esta considerando las actividades a ser realizadas antes, durante y después. El estudiante: al igual que el profesor, debe tener una formación mínima a cerca de una videoconferencia y familiarizarse con el medio. El técnico especialista: es el responsable de asesorar al profesor sobre los formatos de audio, video y comportamientos deseables en el momento de estar ante la cámara. Organiza el sitio según facilite la interacción entre el profesor y los alumnos internos y externos. 111 4.2 H.323 SOBRE REDES ATM H.323 puede operar sobre redes ATM35, ya que el uso de ATM es transparente a los protocolos del estándar H.323. Sin embargo, podría resultar menos eficiente que usar directamente AAL5 para el transporte de tramas de audio y video. También, el uso de ATM AAL5 nativo puede tener la ventaja de usar un circuito virtual con QoS. La idea del transporte de H.323 sobre ATM consiste en transportar paquetes de audio y video usando RTP/RTCP sobre AAL5, mientras que para la información de datos y control (el protocolo H.245) se continúa usando IP sobre ATM. Teniendo RTP/RTCP directamente sobre AAL5 permitirían la posibilidad de usar la capacidad de calidad de servicio (QoS) de ATM36. Así, el problema de usar QoS en IP sobre ATM se resuelve para los flujos audio y video que exigen un nivel de servicio mejor que el obtenido con el best-effort. 4.3 MPEG-4, LA COMPRESION EN TELEFONOS MOVILES Existe una tendencia creciente a eliminar los cables que conectan los terminales a la redes, haciéndolos totalmente portátiles y personales. MPEG-437 es un estándar ISO/IEC que soporta un rango de bit-rate desde 5kbps hasta 100 Mbps y define métodos para crear y difundir contenidos multimedia a través de Internet y 35 RODRIGUEZ, Rodrigo. Native ATM, videoconferencing based on H.323. Formato: pdf. Lisboa. 5 Págs. 36 INTERNACIONAL TELECOMMUNICATION UNION. ITU-T Recomendation H.323v4. Formato: pdf. 1996. 131 Págs. 37 ACTIVA SOFTWARE. Introducción a MPEG-4. Barcelona. 2002. 3 Págs. 112 equipos móviles como PDAs y teléfonos celulares. Se trata de un formato de muy bajo ancho de banda y resolución de 176 x 144 píxeles, pensado para videoconferencias sobre Internet, etc. Realmente está evolucionando mucho y hay fantásticos codificadores software que dan una calidad semejante al MPEG-2 pero con mucho menor ancho de banda, por lo que puede ser el estándar del futuro debido a la excelente relación calidad-ancho de banda. El estándar MPEG-4 tendrá procedimientos de corrección de errores mejorados para redes móviles. En H.324/M, la redundancia para corregir errores se lleva en el multiplexor. En MPEG-4, está previsto que esta función se realice en el codificador de vídeo y audio, teniendo en cuenta la contribución a la calidad subjetiva de cada bit en función de la información que transporte. Con ello se espera que mejoren de forma apreciable las prestaciones, usando modos de transmisión transparente, que poseen mayor capacidad. Cabe destacar que tanto MPEG-4 como H.263 se encuentran principalmente enfocados a intentar mantener una calidad de video en tiempo real utilizando los mínimos bits posibles, por lo tanto, los dos estándares están enormemente relacionados. MPEG-4 define “objetos media o audiovisuales” para permitir la creación de elementos interactivos e incluye herramientas para manejar la distribución en una amplia variedad de entornos y el ajuste a la velocidad de conexión. Es importante destacar que cada objeto (video, audio, imágenes, texto, gráficos 2D y 3D) se pueden tratar (visualizar, editar, escalar, etc.) por separado independiente de los demás. 113 Como se muestra en la figura 35, el estándar MPEG-4 ofrece la posibilidad de descomponer una imagen en diferentes áreas para optimizar la velocidad de transmisión. Figura 35. Descomposición de una imagen en MPEG-4 Fuente: CHUNG, Jae-won. MPEG-4 video-overview and application. 2000. Hyundai Electronics. Formato: ppt. 33 diapositivas. 4.4 MBONE, TECNOLOGIA DE TRANSPORTE MULTICAST PARA VIDEOCONFERENCIA La característica fundamental de los paquetes de datos que se utilizan en la Internet es que son unicast, es decir, contienen la dirección de origen y la de destino y están diseñados para la comunicación punto-a-punto o son broadcast, van de un origen a todos los posibles destinos (dentro del rango de red o subred correspondiente). Los paquetes multicast en cambio, contienen la dirección de un grupo dinámico de destinos. De este modo es posible que localizaciones diversas puedan participar en una videoconferencia. Para ello se utilizan diversas técnicas (encapsular paquetes multicast dentro de paquetes unicast, túneles creados por routers especializados (mrouted)38, etc.). 38 GARRET, David et al. Intranets al descubierto. Prentice Hall. España. Pág. 465. 1997 114 En 1992, un conjunto de subredes interconectadas con routers capaces de enviar paquetes multicast fueron escogidas para experimentar con multicast. La prueba de multicast se llamó Multicast Backbone (MBone)39 y sirvió como un medio para desplegar aplicaciones multicast. MBone empezó con 40 subredes en cuatro países diferentes y ahora tiene más de 3400 subredes en más de 25 países y espera crecer con una proporción aun más rápida. Mbone es esencialmente una red virtual implementada sobre una parte de Internet. En Mbone las subredes multicast son conectadas con otras por medio de enlaces virtuales llamados túneles. Los aumentos de las características de los softwares de enrutamiento multicast en los routers usados en Internet, reemplazará gradualmente la necesidad de usar los túneles. En la actualidad, MBone se usa para transportar audio y video multicast en reuniones de la Internet Engineering Task Force (IETF), en misiones espaciales de la NASA, en la Casa Blanca y sesiones del senado de USA, así como charlas técnicas y seminarios. 4.5 SIP, PROTOCOLO PARA VIDEOCONFERENCIAS SOBRE IP El Session Initiation Protocol (SIP)40 fue ratificado por el IEFT en 1999 bajo el estándar RFC 2543. Este protocolo ha sido desarrollado por la Universidad de Columbia esencialmente para proporcionar “Presencia” y “Movilidad” dentro de una red IP. 39 BANIKAZEMI, Mohammad. IP multicasting: concepts, algorithms, and protocols;IGMP, RPM, CBT, DVMRP, MOSPF, PIM, MBONE. Formato: pdf. 2000. 40 THE INTERNET SOCIETY. SIP: Session Initiation Protocol. RFC 3261. 2002. 115 Evidentemente, la telefonía y videoconferencia IP son dos de las muchas aplicaciones que pueden ser desarrolladas sobre SIP, algunas de ellas hoy en día gozan de gran popularidad como es el caso de la mensajería instantánea y ciertos juegos en red; otras, como las herramientas de trabajos colaborativos, van abriéndose un hueco dentro de las organizaciones. Otra característica de SIP es que esta basado en un modelo cliente-servidor. A diferencia de H.323 en SIP sólo se definen los elementos que participan en un entorno SIP y el sistema de mensajes que intercambian estos. Estos mensajes están basados en HTTP y se emplean esencialmente en procedimientos de registro y para establecer entre qué direcciones IP y puertos TCP/UDP intercambiarán datos los usuarios. En este sentido, su sencillez es altamente valorada por desarrolladores de aplicaciones y dispositivos. Ésta es una de las razones por las que SIP se perfila como el protocolo ideal para el desarrollo de nuevos modelos y herramientas de comunicación, además de la telefonía y videoconferencia IP. Otra de las claves del desarrollo e implantación de SIP es su sencillez. La suite de protocolos que participan en SIP es muy sencilla. A efectos de transporte y codificación de la voz y vídeo se utilizan los mismos protocolos que en H.323: UDP, RTP, RTCP para el transporte; y H.26x y G.7xx para la compresión. Por otra parte, en lo relativo a establecimiento de llamadas y proceso de registro sólo se define un nivel a través del cual se inician los mensajes SIP en la red; nivel accesible desde niveles superiores de aplicación como C++. 116 SIP soporta 5 elementos funcionales para el establecimiento y terminación de comunicaciones multimedia: localización de usuarios, i ntercambio / negociación de capacidades de los terminales, d isponibilidad de usuarios, e stablecimiento de llamada y mantenimiento de llamada. 117 5. SOLUCIONES DE VIDEOCONFERENCIA Los equipos de videoconferencia personal o de escritorio no han alcanzado el nivel óptimo de la relación existente entre la utilidad que se obtiene al adquirir un equipo y el costo de adquirirlo, como ha sucedido con los equipos de videoconferencia grupal. Para el caso de la videoconferencia grupal, la tendencia es hacia el abaratamiento de los costos de los propios sistemas, reducción de los requerimientos de ancho de banda, de las dimensiones de los equipos requeridos, de los costos de instalación y de las condiciones mínimas necesarias para operación, así como también el incremento en la calidad del video. 5.1 EL MERCADO DE LOS SISTEMAS DE VIDEOCONFERENCIA En el mercado existen equipos modulares que junto con el CODEC, incluyen los equipos de video, de audio y de control, así como también equipos periféricos. Los periféricos son todos aquellos dispositivos que permiten proporcionar información al CODEC, tales como monitores, las cámaras de vídeo, micrófonos, cámara de documentos (permite mostrar acetatos, fotografías, gráficas, diapositivas, documentos impresos, objetos e incluso objetos tridimensionales), videocaseteras y pizarrones electrónicos, entre otros. 118 5.2 SOLUCIONES DE HARDWARE Entre las compañías a analizar mas importantes en el desarrollo de equipos para videoconferencia se encuentran: POLYCOM, VTEL, VCON, TANBERG, RADVISION y CISCO los cuales ofrecen una amplia gama de productos ajustados a las necesidades del cliente como son las áreas de la educación, la medicina, la oficina, los negocios y los sistemas de escritorio. POLYCOM. Esta es una de las compañías más representativas del mercado de los equipos de videoconferencia. Sus productos se ofrecen según sean para videoconferencias de sala, de escritorio o de oficina. En las de sala encontramos una gran variedad como lo es el ViewStation FX, el cual soporta los estándares H.320 y H.323 con una calidad de video similar a la de TV. Soporta los estándares de video H.261 y H.263, y los de audio G.711, G.722 y G.728. En los de escritorio se puede encontrar el ViaVideo II (soporte de los estándares H.323), el cual opera con audio full duplex de acuerdo a los estándares G.711, G.722, G.723.1 y G.728, los estándares de video soportados son el H.261 y el H.263, y el T.120 para los datos. En cuanto a las soluciones que se presentan para las oficinas el VSX3000 entrega una solución integrada de la videoconferencia de la alta calidad ideal para las oficinas ejecutivas. El VSX3000 proporciona soporte para estándares tanto H.320 (a velocidades de hasta 512 Kbps) como H.323 (a velocidades de hasta 2Mbps). Este presenta soporte para los estándares de video H.261, H.263 y H.264 (MPEG-4). VCON. Esta empresa fabricante ofrece una extensa gama de productos de videoconferencia 119 divididos en: videoconferencia de salón, videoconferencias de escritorio y unidades de control multipunto. En las videoconferencias de salón ofrecen dos productos; el HD3000 (soporte para H.323) y el HD5000 (con soporte para H.323 y H.320), los cuales son ideales para videoconferencias de negocios en donde se requiere de una alta calidad. Estos dos productos presentan soporte para los estándares de audio G.711, G.722, G.723.1 y G.728. En cuanto a los de video soportan el H.261, el H.263 y el H.264 (MPEG-4). En las videoconferencias de escritorio muestran algunos kits de videoconferencia (incluyen el CODEC, cámara, micrófono, software y otros accesorios) los cuales en su mayoría presentan un soporte para los estándares H.320 y H.323. Algunos de los kits son Escora, Cruiser y el VIGO. En cuanto a las soluciones que presentan en las unidades de control multipunto se encuenta el VCON conference Brigde 2000 el cual posee una capacidad desde 4 a 64 participantes con soporte para los estándares SIP, H.323 y HTML/HTTP. Presenta soporte para los estándares de audio G.711, G.722 (con conversión de G.722 a G.711) y los estándares de video H.261, H.263 y H.264 (MPEG-4). VTEL. Esta empresa fabricante esta dedicada a aplicaciones como la educación, la medicina y negocios pequeños y grandes, entre otros. Entre los sistemas ofrecidos para los pequeños negocios esta el Vista™ EZ media station, el cual es un sistema de videoconferencia H.323/IP con la posibilidad de interfaces inalámbricas LAN. En cuanto a las soluciones que presenta en educación y a grupos de negocios medianos y pequeños están el Vista™ MX media station, el Vista™ VX-P media station y el Vista™ PRO media station, los cuales presentan soportes para los estándares H.323 y H.320 usando 120 plataformas como Windows. TANDBERG. Esta es una compañía que ofrece una gama amplia en productos para videoconferencias grupales, mostrando gran soporte para los estándares H.320 y H.323. En sus productos nos presentan desde sistemas de videoconferencia grupales con pantallas para diferentes tamaños de salones, hasta Gateways (IP/RDSI) y MCUs .En ellos se destacan los productos HealthCare Series los cuales están destinados a aplicaciones medicas como consultas y estudios clínicos entre otros. RADVISION. Por su parte el equipo más novedoso que ofrece esta compañía es el Gateway de videotelefonía para 3G, el cual realiza una integración entre las redes móviles de 3G y las redes IP y RDSI. Este presenta soporte para los estándares de video MPEG-4 y H.263, y G.711 para el audio. CISCO. En este sector CISCO Systems no se podía quedar atrás, con su Cisco IP/VC 3510, el cual es una MCU que permite que varios usuarios participen en videoconferencias basadas en IP. El MCU admite hasta 15 sesiones a 128 Kbps, nueve sesiones a 384 Kbps, siete sesiones a 512 Kbps, cinco sesiones a 768 Kbps o tres sesiones a 1,5 Mbps. Contiene un controlador multipunto (MC) y un procesador multipunto (MP). También ofrece los Gateways para videoconferencia Cisco VSC 3000 (gateway RTB/IP), Cisco IP/VC 3520 y Cisco IP/VC 3525 permiten a las empresas conectar sistemas como RTB y H.320 basados en RDSI con puntos terminales de videoconferencia H.323 basados en IP. 121 En Colombia existen algunas compañías como Televideo S.A y COLVATEL SA ESP en Bogota, y VIDEONET LTD en Cali que ofrecen soluciones en instalaciones de equipos de videoconferencia. 5.3 SOLUCIONES EN SOFTWARE Entre las soluciones mas destacadas en cuanto a softwares se encuentran: NetMeeting. El popular software de Microsoft para realizar videoconferencias y trabajos en colaboración con otras personas por medio de uso conjunto de archivos, pizarras, aplicaciones y programas, entre otros. Este software permite entre otras características: ver y oír a otras personas, programas compartidos, escritorio compartido, enviar y recibir datos cifrados, trabajo simultáneo sobre un archivo, utilización de pizarras, realizar llamadas, buscar personas e intercambiar archivos. NetMeeting41 incluye soporte técnico para el estándar de conferencias de audio y vídeo H.323, y el estándar de conferencias de datos T.120. NetMeeting se puede utilizar para hacer y recibir llamadas desde productos que sean compatibles con H.323 y T.120. Con el equipo y servicios equipo adecuados de terceros, NetMeeting puede realizar una llamada a un teléfono mediante una puerta de enlace H.323. NetMeeting también puede realizar llamadas a unidades de conferencia multipunto H.323 (MCUs) y participar en conferencias multipunto de audio o vídeo. 41 MICROSOFT. NetMeeting 3.0. http://www.microsoft.com. 122 CU-SeeMe. Este potente programa de comunicaciones producido por The White Pine Software, Inc., soporta videoconferencia multipunto con total compatibilidad para las plataformas de Windows y Mac lo que permite la conexión entre usuarios de ambos productos. Ofrece un amplio abanico de posibilidades y alternativas de conexión según el número de interlocutores y las vías de transmisión elegidas, ya que permite utilizar imágenes, sonido, texto y gráficos. Las videoconferencias con CU-SeeMe42, pueden ser de los siguientes tipos: •Videoconferencias uno a uno. Permite la conexión entre dos usuarios de CU-SeeMe. •Videoconferencias en grupo: Es la opción adecuada para la comunicación simultánea entre trabajadores de una misma empresa, grupos de estudiantes, etc. •Videoconferencia cibernética: Su uso es similar al de la emisión de un programa de televisión (únicamente es posible la recepción), que puede ser recibido a través de nuestro ordenador. •Conferencias cibernéticas simultáneas: Con CU-SeeMe, es posible conectarse de una forma simultánea a varias emisiones, de la misma forma que es posible elegir entre los distintos menús de televisión digital. Vpoint. Este software producido por la compañía VCON provee de un sistema de videoconferencia de alta calidad. Presenta soporte para el estándar H.323 v3 con una velocidad de transmisión desde 64Kbps hasta 1.5Mbps, soportando las recomendaciones de 42 COX, Nancy. Guía de redes multimedia. Madrid. McGrawHill. 1996. P 135. 123 video H.261 y H.263, las de audio G.711, G.722, G.723.1 y G.728 y las de datos T.120. Posee 6 soportes de idiomas incluyen español y 4 diferentes tamaños de ventana en la pantalla. Entre los requerimientos básicos que debe tener un PC para su instalación están: procesador Pentium III 1Ghz, Windows 98, ME, 2000 o XP, 40MB de espacio libre de disco duro, 64MB de memoria RAM para WIN98, ME y 2000, 128MB de memoria RAM para WIN XP, cámara USB o tarjeta de capturadota de video conectado al PC, tarjeta de audio con soporte para micrófonos y auriculares y 2 puertos USB. 5.4 CRITERIOS PARA LA ELECCION DE UN SISTEMA DE VIDEOCONFERENCIA Debido a la gran variedad de productos, una cuidadosa evaluación de todos ellos está fuera del alcance de esta investigación. Es más, continúan apareciendo novedades y versiones mejoradas constantemente. Por ello, teniendo en cuenta el marco de la presente investigación, se han seleccionado una serie de criterios para la elección de un sistema de videoconferencia: 1. Bajo coste. A pesar de lo costoso que resultan aun los sistemas de videoconferencia, los avances en la electrónica han hecho que muchos fabricantes ofrezcan sus productos a un costo razonable. 2. Calidad suficiente. El audio y video deben ofrecer la suficiente calidad para poder llevar a cabo la actividad programada en una videoconferencia sin que los problemas de recepción 124 se conviertan en el tema recurrente de todas las sesiones. 3. Fácil manejo. Al mismo tiempo, deben ser fáciles de instalar, configurar y manejar. El ideal es que no requieran formación específica para su uso, más allá de un corto procedimiento de operación y unos minutos de práctica ("plug and play"). 4. Multipunto. Debe ser posible que varias personas situadas en lugares distintos puedan participar en una videoconferencia. 5. Integrables fácilmente en entornos virtuales de enseñanza/aprendizaje. El sistema elegido debe poderse integrar armónicamente con otras aplicaciones de red como el World-Wide Web o el correo electrónico que forman parte del entorno en el que se produce la comunicación educativa. Por ejemplo, un usuario debe poderse unirse a una sesión de videoconferencia simplemente haciendo "clic" con el ratón sobre un vínculo hipertextual ("link") en una página web. 6. Interoperabilidad multiplataforma. Deben permitir la comunicación entre usuarios de sistemas de distintos tipos (RDSI, ATM, Frame Relay, Ethernet y Telefonía celular). Para ello los productos deben acomodarse a los estándares internacionales de interoperabilidad publicados por la ITU-T. Para finalizar este capitulo, en los documentos anexados a esta monografía se dan a conocer las hojas técnicas de algunos de los sistemas de videoconferencia más representativos. 125 6. CONCLUSIONES Y RECOMENDACIONES La realización de esta investigación deja innumerables satisfacciones en el conocimiento de las características de implementación de los sistemas de videoconferencia de acuerdo a cada uno de los estándares desarrollados. Es así como se ha llegado a afirmar que los estándares más utilizados son el H.320 y el H.323, y los que presentan una gran perspectiva hacia el futuro son el H.310 y el H.324/M. Unos de los aspectos importantes que hay que tener en cuenta para la realización de una videoconferencia, es saber cual estándar se adapta mejor a la aplicación ya sea por conceptos de calidad de imagen, audio y de costo de los equipos. Estas recomendaciones son de gran importancia para el montaje de un sistema de videoconferencia ya que brinda compatibilidad entre los equipos y además garantiza que el sistema se puede ir mejorando con las nuevas tecnologías que estén saliendo al mercado y no quedarse obsoleto con el paso del tiempo. Los sistemas de videoconferencia cada día se esta convirtiendo en una herramienta útil para la instituciones de educación, empresas multinacionales y diferentes entidades ya que les permite hacer reuniones, juntas, conferencias etc. el cual reduce costo de viajes y tiempo, además mejora las relaciones de trabajo y permite que personas de diferentes parte del 126 mundo se reúnan a intercambiar idea sin necesidad de movilizarse a otros países. En el diseño de un sistema de videoconferencia para aplicaciones como las reuniones de negocios o para la educación se deben de tener muy en cuenta aspectos como la iluminación, la acústica, el ruido ambiental, la reverberación y la cancelación de eco, los cuales son tratados en la tesis de grado titulada “Diseño de un sistema de videoconferencia para la Universidad Tecnológica de Bolívar”. Sin embargo, antes de definir todos estos aspectos, lo primordial es definir inicialmente el estándar de videoconferencia sobre el cual va operar el sistema, para así saber cuales son las características de los distintos de equipos que se instalaran, así como de las interfaces de entrada y salida de audio y video que poseen estos.. Para garantizar que un sistema de videoconferencia instalado funcione correctamente, se recomienda que los equipos adquiridos de distintos fabricantes soporten el estándar según el tipo de red en el cual se esta implementando. En esta investigación muestra una descripción exhaustiva de cada uno de los sistemas de videoconferencia establecidos en los estándares internacionales de la ITU. Sin embargo, se podría profundizar en aspectos como las tecnologías de videoconferencia sobre MBone y el funcionamiento de SIP, como también desarrollar un trabajo acerca de las cualidades que posee el estándar de codificación de video MPEG-7 respecto a los que lo preceden. 127 BIBLIOGRAFIA HERRAN, Eliana y ENSUNCHO, David. Diseño de un sistema de videoconferencia para la Universidad Tecnológica de Bolívar. Cartagena de Indias, 2001. Trabajo de grado. (Ingeniero de sistemas). Universidad Tecnológica de Bolívar. Facultad de Ingeniería Sistemas. COX, Nancy. Guía Lan Times de Redes Multimedia. MacGrawHill. España, 1996. GARRET, David et al. Intranets al descubierto. Prentice Hall. España, 818 páginas. 1997. PAGINAS WEBS UNIÓN INTERNACIONAL DE TELECOMUNICACIONES, ITU. [on line]. Actualizado el 06 de Mayo de 2004. Página web de la Unión internacional de telecomunicaciones. POLYCOM, Inc. [on line]. Actualizada 2004. Página web de uno de los fabricantes de equipos de videoconferencia más representativo. VTEL. [on line]. USA. Actualizado 2004. Compañía especializada en la fabricación de productos de videoconferencia según las aplicaciones que necesite el cliente. 128 VCON. [on line]. Actualizada 2004. http://www.vcon.com/ Página Web de una de las compañías más completas en cuento al desarrollo de hardware y software de videoconferencias. CISCO SYSTEMS, Inc. [on line]. Actualizada 2004. Página web de una de las compañías pioneras en software y dispositivos de redes en el mundo, la cual ofrece entre otros MCUs y Gateways. TANDBERG. [on line]. Actualizada 2004. Página web de uno de los fabricantes de sistemas de videoconferencia que ofrece una de las amplias soluciones a los clientes. ROZADA, José. Nuevos estándares para comunicaciones multimedia. [on line]. [Caracas, Venezuela]. Página web que presenta una descripción de todos los estándares para la comunicación multimedia, detallando además de los orígenes de la comunicación multimedia. PALOMINO, José. Consideraciones técnicas sobre videoconferencia. [on line]. Este archivo en formato pdf es un buen tutorial a cerca de los conceptos generales de los sistemas de videoconferencia. 129 MICROSOFT CORPORATION. Chapter 11: Understanding the H.323 Standard [on line]. Diciembre, 1999. Actualizada 2004. URL: http://www.microsoft.com/ windows/NetMeeting/Corp/reskit/Chapter11/default.asp>. 1999. CISCO SYSTEMS, Inc. [on line]. San José, CA-USA. Julio, 2002. Actualizada 2004. Archivo en formato pdf de CISCO en el cual se detalla capitulo por capitulo los pasos del diseño de un modelo de videoconferencia basado en H.323. ALEXANDRE, Enrique. Introducción a la codificación de audio natural a bajas tasas binarias de MPEG-1 a MPEG-4. [on line]. . 2001. Archivo en formato pdf que muestra una breve descripción de todos los estándares MPEGs. MICROSOFT CORPORATION. Chapter 10: Understanding the T.120 Standard. [on line]. Diciembre, 1999. Actualizada 2004. . 1999. Pagina web de Microsoft donde se describen los beneficios, la arquitectura y los productos y servicios de una videoconferencia basada en T.120. 130 ANEXOS Anexo 1. Data sheet del Polycom ViewStation FX. Data sheet que muestra un ejemplo de un producto de videoconferencia para salón. Anexo 2. Portafolio de productos de videoconferencia de TANDBERG. Entre la variedad de productos de la compañía TANDBERG, se puede destacar el de aplicaciones de medicina; el HealthCare Series. Anexo 3. Data sheet del Polycom ViaVideo II. Producto de Polycom que es un ejemplo de un sistema de videoconferencia de escritorio. Anexo 4. Data sheet del VCON conference Bridge 2000. Ejemplo de un conmutador que puede operar como un gatekeeper en una videoconferencia. Anexo 5. Data sheet del ViaIp gw-P20/M Gateway. Gateway de RADVISION que convierte los protocolos H.324/M para redes móviles celulares a protocolos de redes IP basadas en H.323. 131 Anexo 6. Data sheet del software vPoint de VCON. Software ofrecido por VCON como solución a los sistemas de videoconferencia sobre escritorio. Anexo 7. Comparación de las características de varios productos VTEL Vista. Entre las características de todos los equipos de VTEL, se pede destacar la capacidad del Vista PRO en el soporte del estándar H.321. 132 Hoja de información del producto Herramientas de video Polycom ViewStation FX Rendimiento inigualable para las necesidades de videoconferencia más exigentes ▼ La mejor calidad de video—ofrece un video de calidad de TV a 30 cps ▼ Reúne múltiples salas de conferencias—la capacidad de inte- grar múltiples lugares permite conectar hasta 4 lugares a 384 kpbs o 3 lugares a 512 kpbs en llamadas H.320 o H.323 ▼ Compatible con gráficos XGA de alta resolución ▼ El sonido más nítido—audio digital dúplex completo con supresión de ruido y eliminación de eco ▼ Audio adaptable—flexibilidad del audio extendido vía soportes de micrófono dual y entrada de audio de nivel de línea para micrófonos/mezcladores según especificación ▼ Compatible con cámaras duales de acercamiento con giro e inclinación ▼ Flexibilidad de la red para redes PRI, V.35 y LAN de hasta 2 Mpbs ▼ Capacidades de flujo—la característica de flujo incorporado permite que ViewStation FX capture el contenido para IP Webcasts Estableciendo un nuevo estándar en las comunicaciones por video, el sistema de video conferencia de grupo ViewStation FX™ de Polycom® ofrece el más alto rendimiento para satisfacer las necesi- dades de comunicación por video más exigentes para salas de sesiones, aulas de clase e instalaciones para conferencias hechas a la medida. El ViewStation FX ofrece un video de calidad de TV para una interacción de conferencia con sen- sación en vivo, y al mismo tiempo es compatible con la norma H.263. Adicionalmente, el ViewStation FX proporciona la tecnología de audio de Polycom líder en el mercado para una máxima claridad en grandes salas de conferencia. Estableciendo el estándar de la industria para un sistema de conferencia sencillo, a solicitud, de múltiples puntos, la ViewStation FX contiene un MCU de cuatro puertos incorporado para llamar fácilmente hasta a 4 lugares a 384 kbps de video para una llamada de videoconferencia continua- mente presente. La conmutación activada por voz, el control desde el asiento y el discado a través de la libreta de direcciones presionado un solo botón convierte al ViewStation FX en una herramien- ta poderosa y fácil de usar en las reuniones. Máxima Facilidad y Flexibilidad. Proporcionando la máxima flexibilidad para sistemas de conferen- cias, el ViewStation FX presenta muchas características de fácil uso adicionales. Use una cámara o dos para captar la imagen de una gran audiencia o enfocar a personas específicas. Haga presenta- ciones de flujo o aplicaciones de multimedia, transmita discursos, muestre diapositivas y comparta datos en tiempo real a través de un campus o del mundo. El ViewStation FX es compatible con redes tanto públicas como privadas a través de las redes PRI, V.35 y Ethernet. Un enlace periférico y hub de Ethernet 10/100 promueve la flexibilidad de la red y la conferencia para hacer llamadas H.320 así como H.323. Con capacidades de la Web incorporadas y control a distancia, los administradores IT pueden realizar diagnósticos y actualizaciones de software. Ya sea en una sala de sesiones, una sala de conferencias o un aula de clase, ViewStation FX ofrece un poderoso rendimiento en un sistema fácil de usar para los exigentes ambientes de reuniones de la actualidad. Ejemplos de Aplicaciones El ViewStation FX es ideal para una gran variedad de aplicaciones en los negocios y la educación. Salas de Conferencia/Sesiones Telemedicina ▼Reuniones ejecutivas, en donde la comunicación clara es crítica ▼Soporte clínico a distancia básico, fácil de instalar/usar y de bajo costo ▼Reuniones semanales de equipos de 3 ó 4 lugares ▼La mejor calidad de video para consultas directas, con entrada adicional ▼Análisis del estado de proyectos para dermascopios y otoscopios, etc. ▼Presentaciones de ventas Ventas Minoristas ▼Merchandising Educación/Aprendizaje a Distancia/Capacitación Corporativa ▼Salas de multimedia K-12 para originar y recibir clases grabadas y en vivo ▼Salones de exhibición virtuales ▼Aulas universitarias, para transmitir y/o grabar clases ▼Capacitación/soporte al comerciante ▼Laboratorios, para transmitir y/o grabar procedimientos y experimentos ▼Transacciones con el vendedor ▼Centros de capacitación en el área rural y metropolitana para capacitar a Gobierno trabajadores desplazados ▼Aprendizaje a distancia para aplicaciones federales ▼Salas de capacitación corporativa ▼Apoyo Crypto-Resync estándar de la OTAN Comunicaciones Corporativas ▼Comunicación de video de calidad de Command Center de tomas Realizar "reuniones de pueblos virtuales" regularmente para mantener la instantáneas XGA▼ cultura corporativa ▼Comunicación de despliegue de campo en casos de emergencia y que no Comunicaciones HR con oficinas distantes son de emergencia▼ ▼Calidad de TV, calidad de video de 30 cps para presentaciones ejecutivas ViewStation FX Especificaciones Técnicas Estándares Compatibles Salidas de Video (NTSC o PAL) Speakerphone (Micrófono) Incorporado ITU-T H.320 (px64); H.323 Monitor Principal (en donde sea aprobado) Video de calidad de TV (60 campos/segundo) Video S o Video compuesto Audio agregado para terceros Video 2do Monitor H.261, Anexo D Control a DistanciaVideo S Diagnóstico extensivo y actualizaciones de software H.263+, Anexo L, F,T, I, J, u, U 3er Monitor a través de PC, LAN, WAN o videollamada Audio Video S o XGA G.728, G.722, G.711 Conectividad con Ethernet/Internet/IntranetSalida de VCR (grabación) Acoustic Plus 716 de Polycom Compatible con TCP/IP, DNS, WINS, SNMP, DHCP,Compuesta ARP, WWW, ftp y Telnet Comunicaciones H.221 Sistema PIP automático del Monitor Puertos de Ethernet con sensor automático Principal 10/100 Mbps Presentación Visual Encendido automático, cambio automático, apagado Dos Interfaces T.120 con ShowStation™ IP, ® ® Resolución de Video automático WebStation y NetMeeting H.261, H.263+ Modo: FCIF 352 x 288 Cámara de Seguimiento de Voz Principal Capacidades de Teleconferencia a través de la Buzón con Calidad de TV Web 336 x 320 Lente Acercamiento 12x Aplicaciones Compatibles Pantalla Completa con Calidad de TV 336 x 448 Equilibrio Blanco PowerPoint™ y NetMeeting™ de Microsoft™ Automático Capacidades de Flujo Resolución de Gráficos—Formato de Ángulo de Giro Multicast de flujo de video en vivo a observador Transmisión de Diapositivas 100° Cisco® IP TV™ y apple Quick Time® H.261 Modo: 4x FCIF 704 x 576 Ángulo de Inclinación StreamStation (opcional) para el almacenamiento, H.263 Modo: 16x FCIF 1408 x 1152 25° archivo y reproductor Real Networks G2 Formato de Visualización de Gráficos Local Posiciones Predeterminadas Puerto de Información XGA 10 posiciones predeterminadas de la cámara local Conector RS-232 para aparatos con control remoto NTSC: 704 x 480 10 posiciones preestablecidas para cámara de PAL: 704 x 576 extremo distante Interfaces de la Red Captura de Imágenes de Gráficos ISDN PRI (Interface de Velocidad Primaria) RJ-45 JPEG a través de explorador de la Web Técnica de Seguimiento V.35/RS-449, soporta la conexión directa o discadoSeguimiento de voz o seguimiento a posiciones RS-366 Frecuencia de Cuadro predeterminadas LAN Llamadas H.320: 15 cps a 56 - 320 kbps Audio Digital Dúplex Completo Llamadas H.320: 30 cps a 336 - 2 kbps ElectricidadAnulación de eco mediante adaptación instantánea Fuente de energía con sensor automático Llamadas H.323: 15 cps a 64 - 320 kbps Control automático de ganancia Voltaje/energía de operación Llamadas H.323: 30 cps a 384 -2 kbps Eliminación automática de ruido 90-260 VCA; 47-63 Hz/40 vatios Llamadas a Múltiples Puntos en PRI o Entradas/Salidas de Audio Propiedades Físicas Ethernet Entrada de Nivel de Línea (RCA) (H.320 o H.323) Dimensiones de ViewStationDesbalanceada Local más 3 lugares a 384 kbps 33 cm x 20 cm x 15 cm Local más 2 lugares a 512 kpbs Salida de Nivel de Línea Conectora Peso Salida de audio izquierda y derecha 2.7 kg (6 libras) Entradas de Video (NTSC o PAL) Soportes de Micrófono Digital 2da Cámara Cobertura de 360° Idiomas Compatibles: Video S Los micrófonos tienen 3 elementos digitales hiper- Inglés, francés, alemán, español, italiano, portugués, cardioides chino y japonésCámara Documental Video S Cobertura omnidireccional Garantía Entrada de VCR (para reproducción) 1 año, incluyendo repuestos y mano de obra Compuesta Garantía extendida disponible www.polycom.com ©2000 Polycom, Inc. Reservados todos los derechos. Polycom y el logo de Polycom son marcas registradas, y ViewStation FX es una marca registrada de Polycom, Inc. en los Estados Unidos y varios países. N° de Parte 3726-06642 Rev. 05.00 TANDBERG Product Portfolio For the boardroom. Sleek, elegant design combined with state-of-the-art engineering. The most advanced features and functions for mission critical communication. • Two 50" plasma monitors, 16:9 wide screen format • See live PC presentations and presenter simultaneously • Built-in conferencing with multiple video and audio sites • Embedded security • Premium audio optimized for larger rooms • High bandwidth: 2 Mbps ISDN / 3 Mbps IP • Add a PC to the meeting For the boardroom and executive conference room. Shares the performance features of the TANDBERG 8000, but with a smaller profile. Bright, clear displays framed in an elegant design. • Two 30" LCD monitors, high resolution 16:9 format • See live PC presentations and presenter simultaneously • Built-in conferencing with multiple video and audio sites • Embedded security • Premium audio optimized for large rooms • High bandwidth: 2 Mbps ISDN / 3 Mbps IP • Add a PC to the meeting For medium- to large-sized meeting rooms and boardrooms. High-end performance features, large monitors and precision audio create a collaborative meeting environment. • Two 32/33" monitors • See live PC presentations and presenter simultaneously • Built-in conferencing with multiple video and audio sites • Embedded security • Premium quality audio optimized for large rooms • High bandwidth: up to 2 Mbps ISDN / 3 Mbps IP • Add a PC to the meeting For medium- to large-sized meeting rooms. A complete videoconferencing system in a compact package. Easy to transport on a specially-designed cart. • Two 27/29" monitors • See live PC presentations and presenter simultaneously • Built-in conferencing with multiple video and audio sites • Embedded security • Add a PC to the meeting • Bandwidth: 384 kbps ISDN / 1.5 Mbps IP For executive offices and small meeting rooms. State-of-the-art team tool that delivers style and performance in equal measure. • Built-in 12.1" LCD screen • Bandwidth: 384 kbps ISDN / 768 kbps IP • Add a PC to the meeting • Optional wall mount • Embedded security • Compatible with Cisco® CallManager 4.0 • Wireless LAN capable For medium- to small-sized meeting rooms, and shared office environments. Provides high bandwidth capabilities for excellent quality point-to-point and multisite calls in a flexible, set-top format. • Dual monitor capable • Embedded security • Built-in conferencing with multiple video and audio sites • Wireless LAN capable • Add a PC to the meeting • Bandwidth: 384 kbps ISDN / 1.5 Mbps IP • See live presentations and presenter simultaneously For medium- to small-sized meeting rooms as well as shared office environments. Incorporates the features and functions of larger systems in a portable, high performance set-top box. • Dual monitor capable • Embedded security • Built-in conferencing with multiple video and audio sites • Wireless LAN capable • Add a PC to the meeting • Bandwidth: 384 kbps ISDN / 1.152 Mbps IP • See live PC presentations and presenter simultaneously For offices and small meeting rooms. A business tool that provides all the essential functionality for visual communications. • Add a PC to the meeting • Wireless LAN capable • See live presentations and presenter simultaneously • Bandwidth: 128 kbps ISDN / 768 kbps IP • Embedded security For offices and small meeting rooms. Provides essential videoconferencing features for face-to- face meetings with the quality and reliability found in all TANDBERG equipment. • Add a PC to the meeting • Bandwidth: 128 kbps ISDN / 768 kbps IP • Embedded security • Compatible with Cisco CallManager 4.0 • Wireless LAN capable TANDBERG TANDBERG TANDBERG TANDBERG TANDBERG TANDBERG TANDBERG TANDBERG TANDBERG 550 770 880 990 1000 2500 6000 7000 8000 TANDBERG Product Portfolio www.tandberg.net * Rich media presentation tool for corporate, military and education applications. The Director turns an interactive whiteboard and a video system into a powerful presentation, training and collaboration tool for multiple locations. • 67" display with on-screen touch controls • Display images from PCs, DVDs, VCRs, document • Built-in conferencing with multiple video cameras and other input devices and audio sites and embedded security • Display multiple video sites and a PC image simultaneously * The Education Series is ideal for corporate training, school classrooms and higher education. Going beyond traditional distance education, this modular Series meets the special needs of both instructors and students. • Intuitive touchpanel for control of video calls and • Multiple equipment configurations all peripherals, including cameras, a PC and a VCR • Optional components include locator mats, • Instructor Mode allows students to see instructor and student trackers, electronic whiteboards and presentation on a single monitor at the same time specially-designed microphones * Video systems designed for healthcare applications including consultations, clinical studies and CME. The HealthCare Series goes beyond traditional telemedicine to more effectively connect healthcare professionals and patients. • Multiple healthcare products available to meet • Encryption ensures HIPAA compliance for patient specific application needs and room sizes confidentiality regardless of network type • Dual monitors for viewing clinical and non-clinical images • Add peripheral medical and non-medical devices • Connect a PC to view and store medical records An intuitive web-based scheduling tool for anyone in the organization. Four quick point-and-click steps simplify the simultaneous scheduling of video systems and meeting rooms, and increase usage. • Software accommodates an unlimited number of users • Schedule and invite multiple sites to join the • Clean, user-friendly interface same meeting • Supports videoconferencing equipment from • Schedule multiple meetings simultaneously multiple vendors • Supports ISDN, IP or mixed network connections A web-based diagnostic and management application for administrators. The TANDBERG Management Suite streamlines the management and maintenance of an entire videoconferencing network, including scheduling. • Supports network and videoconferencing equipment • Provides intelligent diagnostics and online help tools from multiple vendors • Integrates with Microsoft® Exchange and provides • Integrated management, maintenance, call processing scheduling through Microsoft Outlook® and scheduling interface • Supports TANDBERG Instant Messenger • Manages ISDN, IP or mixed network connections • Supports TANDBERG See&Share data conferencing The first Multipoint Control Unit (MCU) designed specifically for the enterprise. Connect multiple audio and video sites in one or more ISDN, IP and mixed ISDN and IP conferences. Easily deployable and scalable. • Capacity for up to 16 video and 16 audio calls • Supports AES embedded security encryption • Automatic layout and resolution switching • Supports bandwidths from 56 kbps – 2 Mbps A gateway that offers unparalleled simplicity. Provides seamless integration between IP and ISDN networks with complete feature transparency and protection from network interruptions. • Capacity for up to 8 video and 8 audio calls • Supports AES embedded security encryption • Facilitates automatic load balancing • Supports bandwidths from 56 kbps – 2 Mbps * Available in North America and other selected countries. System features may vary depending on network selection and software Please visit www.tandberg.net for more information. package. All specifications subject to change without notice. TANDBERG is a registered trademark of TANDBERG in the U.S. and various other countries. All other trademarks are property of their respective owners. World Headquarters Philip Pedersens vei 22 200 Park Avenue, Suite 2005 1366 Lysaker, Norway New York, NY USA 10166 Tel: +47 67 125 125 Tel: +1 212 692 6500 Fax: +47 67 125 234 Tel: +1 800 538 2884 (toll free in the U.S.) Video: +47 67 117 777 Fax: +1 212 692 6501 E-mail: tandberg@tandberg.net Video: +1 212 692 6535 E-mail: tandberg@tandbergusa.com TANDBERG TANDBERG TANDBERG TANDBERG HealthCare Education TANDBERG Gateway MCU Management Suite Scheduler Series Series Director February 2004 Polycom® ViaVideoII™ Personal video communication system Benefits Natural, High-Quality Video – Full-screen, full- motion video, Polycom Video Error Concealment, multiple monitor support, up to 512 kbps, 30 fps Crystal Clear Audio – Full duplex audio lets you speak and listen at the same time; echo cancella- tion and noise suppression enhance audio clarity The world's most advanced, fully integrated personal video communication system brings enhanced, business-quality voice, video and data to the Easy to use – New, Windows-like user interface is more intuitive and easier to navigate than ever desktop. ViaVideo II delivers full-screen, full-motion video, crystal clear before. Context sensitive help screens and detailed audio, and extensive data collaboration to your desktop or laptop PC. error messaging shorten the learning curve and speed adoption Polycom's ViaVideo II combines the power of a Bring geographically dispersed workgroups, tele- Simplified Dialing – Polycom OneDial™ makes high-quality camera, microphone and multimedia commuters, and remote offices together like never video calling as simple as dialing a telephone, processor in a compact and portable system that before — easily and affordably with ViaVideo II. integration with Polycom Global Directory easily connects to the USB port on your PC. With supports easy dialing, Polycom Conference on the integrated high-performance multimedia The all-in-one choice for The Polycom Office™ Demand supports immediate, unscheduled multi- processor, ViaVideo II allows you to effectively With integrated video, voice, data and Web capabili- point conferencing — having any conference conference and run your other PC applications at ties, The Polycom Office is the only solution that where you want it and when you want it the same time. With its Windows-like, graphical offers you an easy way to connect, conference, and user interface and dual monitor support for collaborate any way you want. The Polycom Office is Extended Collaboration – Integration with the expanded desktop workspace, ViaVideo II offers our commitment to making distance communications Polycom WebOffice Conferencing Portal enhances elegantly simple navigation. as natural and interactive as being there. Work collaboration with real-time buddy list, presence faster, smarter, and better with Polycom ViaVideo II detection and simplified sharing of data, software Integration with the Polycom WebOffice and The Polycom Office. and PC applications of your choice Conferencing Portal extends ease of calling with Click and Meet, real-time buddy list, presence Anytime, Anywhere Across the Globe – Sleek, detection and automatic call setup for point-to- compact, and portable; supports 11 languages for point or multipoint calls. It also makes sharing global use software, data and PC applications a breeze. Easily Installed, Centrally Managed – Polycom iPriority features, including Polycom Integrated with Polycom's PathNavigator and Global Video Error Concealment (PVEC) and Diffserv Management System, ViaVideo II can be managed QoS, enable ViaVideo II to deliver high-quality remotely and as part of the complete video network video conferencing over IP networks. And, as an integrated component of The Polycom Office, Video Mail™ – Say it with Video! VideoMail™ ViaVideo II works well for one-to-one or one-to- adds value to any email you send. Record high many communications in offices, home offices quality audio/video messages, preview and simply or small businesses. email them from within the ViaVideo II user inter- face — or store them for later retrieval Connect. Any Way You Want. Polycom ViaVideo II™ Specifications ITU-T H.323 standards compliant System components Physical • Dimensions (W/H/D) codec: 86 mm x 40 mm x 127mm Audio • Integrated camera/codec/microphone and mounting • Dimensions (W/H/D) mounting base: • 7kHz with G.722.1, G.722 base; support for external tripod mount 82 mm x 43 mm x 88 mm • 3.4kHz with G.711, G.723.1, G.728 • Power adapter and cable • Weight: 0.25kg (9oz.) • Acoustic Clarity Technology by Polycom • USB cable • Full Duplex Audio • Application software System (PC) requirements • Echo Cancellation • Electronic application help • Automatic Gain Control (AGC) • Electronic quick start For Windows 2000 and Windows XP • Automatic Noise Suppression (ANS) • Read Me First document • USB Port • Integrated Hyper-cardiod Microphone • 400 MHz processor, Pentium II compatible with MMX Dialing Capabilities • 128 MB RAM Video • 8 MB video memory • H.261, H.263 Directory services • 250 MB available hard disk space (might be considerably • Multiple Monitor Support — must be supported by • Direct registration with Polycom Global Address Book less if required supporting software is already installed) PC video card • Live address book with Polycom Global Address Book • SVGA monitor (800 x 600 pixels) • Picture-In-Picture (PIP) — move/size independently automatically and quickly updates directory with address • 16-bit color or higher from main video changes or new endpoints • Desktop PC with headphones, headset or external • Brightness control — automatic or manual • Live address book with Polycom Global Address Book speakers • Low light, backlight compensation automatically and quickly removes endpoints from • Laptop PC with headphones, headset or internal speakers • Video privacy shutter directory if they are turned off • Headset with microphone must have a single audio con- • Video mute • Polycom Global Address Book integrates with Active nection like those used with cellular phones Directory / LDAP Data • IP network access (64 Kbps and above): cable, DSL, or LAN• Internet Locator Service (ILS) support • T.120, Integrated Microsoft NetMeeting • Microsoft® Internet Explorer Version 6.0 or later• H.323 external gatekeeper, gateway and MCU support - Application sharing • Windows Media® Player Version 7.1 or later• Alias recognition for E.164 dialing - Whiteboard • Microsoft DirectX® Software Version 8.1 or later• Cisco CanMapAlias support - File transfer • Microsoft NetMeeting® Version 3.01 or later - Chat Calling Capabilities For Windows 98 SE and Windows Me • Polycom WebOffice™ Conferencing Portal Integration • USB Port - Initiate point-to-point calls Call forwarding* • 400 MHz processor, Pentium II compatible with MMX - Initiate multipoint calls • Forward on busy • 64 MB RAM - Presence detection • Forward on no answer • 4 MB video memory - Click and Meet dialing - Supported calls Call transfer • 250 MB available hard disk space (might be considerably • Transfer to another H.323 endpoint less if required supporting software is already installed)- Audio, video, data • SVGA monitor (800 x 600 pixels) - Audio and Video Conference-on-Demand** • 16-bit color or higher - Audio and Data • Using PathNavigator and a MGC bridge, create • Desktop PC with headphones, headset or external Voice over IP (VoIP) unscheduled multipoint calls directly from ViaVideo II speakers • Supports voice-only calls to and from VoIP endpoints user interface • Laptop PC with headphones, headset or internal speakers • Headset with microphone must have a single audio People video resolution Quality of Service (QoS) and experience - iPriority™ • CIF (352 x 288 pixels) • Polycom Video Error Concealment (PVEC) for concealing connection like those used with cellular phones packet loss • IP network access (64 Kbps and above): cable, DSL, or LAN• QCIF (176 x 144 pixels) • Microsoft® Internet Explorer Version 6.0 or later • Supports 32 Kbps — 320 Kbps, Up to 15 fps • IP Precedence (ToS) • Windows Media® Player Version 7.1 or later • Supports 320 Kbps — 512 Kbps, Up to 30 fps • Differentiate Services (DiffServ) (CoS) • Network Address Translation (NAT) support • Microsoft DirectX® Software Version 8.1 or later Content video resolution • Automatic NAT IP address discovery • Microsoft NetMeeting® Version 3.01 or later • Receives H.261 Annex D images • Dynamic bandwidth allocation Integrated Audio via USB (Half-Duplex) • 4CIF (704 x 576) • Automatic gatekeeper discovery • Audio cable is optional when running Windows 2000 or • Sends H.261 Annex D images • Configurable TCP/UDP firewall port ranges Windows XP • 4CIF (704 x 576) • Lip synchronization • Packet reordering and dejittering O/S Compatibility System connections • Asymmetric speed control • Windows 98 SE • Windows Me Input/Output System management • Windows 2000 Professional • Power Input • Support for Polycom Global Management System™ • Windows XP Home and Professional • USB Output • Integrated Web server for remote management, dialing, • Audio In/Out diagnostics and passwords Warranty - 3.5mm stereo phone jack supports connection • Remote software update with user-definable URL of optional external headset, headset/microphone • Call detail records — last 25 calls (local) with continual One year parts and labor or powered speakers reporting to Global Management System™ * certain restrictions and exclusions apply Camera Electrical • 1/5th inch color CCD sensor • Domestic power supply: Auto-switching 9 watt; * Call forwarding requires PathNavigator 5.0 • VGA Resolution: (640 x 480 pixels) 7.5 V output ** Conference-on-Demand requires PathNavigator 5.0 • Field of View (FOV): 56 degrees • International power supply: Auto-switching 15 watt; and Polycom MGC MCU • Brightness control — automatic or manual 12 V output • Low light, backlight compensation • Manual focus, tilt and swivel Language support • Privacy shutter • Chinese (Simplified and Traditional), English, French, German, Italian, Japanese, Korean, Norwegian, ©2003 Polycom, Inc. All rights reserved. Network interface Portuguese, Spanish Polycom, the Polycom logo, and ViewStation are registered trade- • IP LAN marks, and Clarity by Polycom, ViaVideo, iPower, PathNavigator,Global Management System, the Polycom Office, WebOffice, - Cable modem VideoMail and OneDial are trademarks of Polycom, Inc. in the US - DSL and various countries. All othertrademarks are the property of their respective companies. Specifications subject to change without notice. North America: 4750 Willow Road, Pleasanton, CA 94588 (T) 1.800.POLYCOM (765.9266) for North America only. For North America, Latin America and Caribbean (T) +1.925.924.6000, (F) +1.925.924.6100 www.polycom.com Polycom EMEA: 270 Bath Road, Slough, Berkshire SL1 4DX, (T) +44 (0)1753 723000, (F) +44 (0)1753 723010 Polycom Hong Kong Ltd.: Polycom Hong Kong Ltd., Rm 1101 MassMutual Tower, 38 Gloucester Road, Wanchai, Hong Kong, (T) +852.2861.3113, (F)+852.2866.8028 Part No. 3726-06713A Rev. 06/03 VCON Conference Bridge 2000 Main Features Cost-effective multipoint conferencing and streaming for IP networks. – Scalable from 3-64 participants/session – Up to 4Mbps per participant The VCON Conference Bridge 2000 (VCB – Web-based scheduler and conference session – Dial in support 2000) combines traditional multipoint moderator including chair control – Audio add-in videoconferencing and streaming into a – H.261, H.263++, H.264 – Continuous presence support allows users single, low cost solution. This allows – Cascading to see up to 4 participants simultaneously interactive conferences to be broadcasted to hundreds or thousands of passive participants – Voice-activated switching in which all MXM Key Features via bandwidth-efficient multicasting. In participants see only the person talking– Ad-hoc conferencing – Remote call addition to common IP MCU features like – Allows mixed SIP and H.323 endpoints in a initiation voice-activated switching and continuous single multipoint conference – Remote call presence, VCB 2000 also supports more termination – Support for VCON’s HD DualStreamTM advanced features like chair control, cascading – Session configuration and wide-band audio with transcoding. With – Wide-band G.722 audio support with – MCU permission an embedded gatekeeper and remote transcoding groups management agent, the VCB 2000 is shipped – Use VCON's Broadcast Viewer to passively – View VCB 2000 as an integrated solution in a rack-mount statistics on MXM view VCB streaming sessions console engine. Scalability up to 64 ports per server gives plenty of expandability and investment – Includes vPoint conferencing clients up to Streaming Features protection. the number of VCB 2000 ports – Uses bandwidth- efficient multicasting Embedded Streaming Server – Data rates up to 4Mbps – Use VCON Broadcast This unique feature allows live streaming of an individual user, a point-to-point conference or a Viewer to passively multipoint conference while hundreds or thousands of other users can passively watch the view streamed sessions stream using a simple viewer application. This feature can be remotely turned on and off by the – Turn on and off via session moderator before or during a call and works for either voice-switched or continuous web-based session moderator presence conferences. Using VCON's no-charge Broadcast Viewer, anyone on the network can see what sessions are being broadcast and can passively view the appropriate one. Now bundled VCON Conference with a low-cost MCU, organizations can stream training sessions, corporate broadcasts, important Moderator video meetings and more to all, or select employees. – Web-based – Chair control Conference Moderator – WebShare for data conferencing – Schedule point-to- Included with the VCB 2000 is the VCON Conference Moderator. The Conference Moderator point or multipoint includes web-based scheduling and conference moderation capabilities. Most types of conferences conferences can be scheduled, including point-to-point, multipoint, gateway calls, and recurring – Automatic redial option events. The scheduling function gives the user many options while creating an event, allowing – Session configuration them to personalize it, including time zone conversion, automatic redial option and more. The – Add/remove conference moderation capabilities are robust, including chair control, web data conferencing participants with VCON’s WebShare or WebEx, adding/removing participants, and starting/stopping – Start/stop streaming streaming of the conference. The Conference Moderator interface is intuitive and user-friendly and can be viewed in several different languagues. The VCB 2000 brings another dimension to video telephony, allowing users to effortlessly participate in and monitor multipoint calls and streaming video sessions. VCB 2000 What’s included? VCB Model 2008 2016 2032 2064 Ports 8 16 32 64 Gatekeeper size 10-user 25-user 50-user 100-user Conference Moderator Yes Yes Yes Yes Streaming capability Yes Yes Yes Yes vPoint software clients 10 25 50 100 Software subscription Yes Yes Yes Yes Server size 1U rack- 1U rack- 1U rack- 1U rack- mount mount mount mount Data conferencing Option Option Option Option Up to 100 users can be registered to the embedded gatekeeper inside the VCB 2000. If more users are required, the gatekeeper (MXM) must be moved to a separate server. Additionally, each VCB 2000 can be upgraded to a maximum of 64 ports with a software-only license upgrade. Specifications Communications Standards Configuration Web Data Conferencing Features* H.323 Licensed in 8 port increments VCON WebShare SIP Sessions configurable in 1 port increments Share any program open on the screen LDAP Dynamic resource allocation pool Data viewed through conference HTML/HTTP Cascading: VCB-VCB, VCB-other IP MCU moderator web-based interface WebEx data conferencing: Audio Standards Conference Moderation Features Access via existing WebEx account G.711 Web-based interface Share any program open on the screen G.722 User ID/password authentication Data viewed through conference G.711-G.722 audio transcoding View conference statistics moderator web-based interface Add/remove participants from conference Video Standards Chair control: PacketAssist Features Continuous presence: H.261 Fixed mode IP Precedence Voice activated switching: H.264, Timer mode(polling) DiffServ H.263++, H.261 Lecture mode (students see teacher, RTP/RTCP port range configuration Resolutions: QCIF, CIF, 4CIF, XGA teacher polls students) H.245 port range configuration Session configuration: Data Rate Voice-switched or continuous presence High Availability Features Continuous Presence: Number of participants Hard Drive: RAID1 (mirroring) Up to 384Kbps per participant Audio algorithm Memory: dual 256M VCON Headquarters Voice Activated Switching: Conference data rate NIC: dual 10/100 Ethernet Tel: +972 9 959 0059 Up to 4Mbps per participant Start/stop streaming Software Service Watchdog Fax: +972 9 956 7244 Scalability and Performance Scheduling Features VCON Americas Maximum active participants per server: Web-based interface Tel: +1 512 583 7700 64- all conferences using G.711audio Scheduling calls Fax: +1 512 583 7701 32- all conferences using G.722 or Point-to-point mixed G.711/G.722 audio Multipoint VCON Europe Maximum conference session size Gateway Tel: +49 89 614 57 0 Fax: +49 89 614 57 399 64 - G.711 audio Recurring events 32 - G.722 or mixed G.711/G.722 Outlook calendaring VCON China Automatic time zone conversion Tel: +86 10 65269791 Fax: +86 10 65269790 * Optional module www.vcon com ©2004 VCON. All rights reserved. DOC 50102 Rev. 5 03/04 FOR ENTERPRISE, CARRIERS & DISTRIBUTED NETWORKS viaIP Gateways Carrier Gateway Services viaIP Gateways enable carriers and service providers to widely deploy lucrative value-added rich media gateway services for integrated rich media collaborative communications over ISDN ISDN and IP networks POP RADVISION viaIP™ gateways provide seamless interoperability IP Backbone ISDN ISDN between different networks and standards to deliver feature- Remote Remote rich, reliable, multimedia conferencing and communications. POP POP viaIP gateways are packet-based from the bottom up, and ensure easy and affordable connection with next-generation distributed networks. The gateway is an ideal solution for Seamless interoperability connecting IP videoconferencing networks with ISDN viaIP gateways are highly compatible and interoperable with standard- endpoints and ISDN bridges for full utilization of your existing compliant gatekeepers, terminals, and MCUs. The RADVISION viaIP videoconferencing investments. Gateway is a mature and market-proven solution enabling you to connect together all of your videoconferencing systems and offices into a single video network, regardless of the protocols used at the Enterprise Gateway Application end site. RADVISION viaIP gateways enable enterprises to cost- effectively connect to remote locations, such as branch offices Scalable and Distributed Solutions or partner sites while offering a scalable solution to allow rich The viaIP family of gateways offers flexible, scalable and distributed media connectivity throughout the organization’s entire supply or centralized solutions that can grow in accordance with the needs chain. of your enterprise to ensure right-sized capacity. Together with multipoint conferencing, Web collaboration applications, scheduling, security modules and powerful network management tools, RADVISION viaIP Gateways put your organization on the right path toward intelligent rich media collaborative communications. LAN Enterprise Site ISDN Gateway viaIP Gateway Highlights Standard-compliant solutions with guaranteed interoperability High quality communications for voice, video and data streams using advanced DSP technologies RADVISION viaIP gateways are part of the Intelligent management of communication channels to ensure viaIP family of multipoint conferencing units, optimal utilization of available resources and services data collaboration, gateways, utilities and Network-wide detection and automatic recovery of communication applications for rich media collaborative and resources for superb reliability communications in large-scale enterprise, Intuitive and easy-to-use, with centralized management and a global carrier and distributed network deployments. view of full system stats viaIP GATEWAY PRODUCT SPECIFICATIONS: gw-P20 gw-P10 gw-B40 gw-S40 Interfaces 2 ISDN PRI T1/E1 1 ISDN PRI T1/E1 4 ISDN BRI v.35/RS-449/EIA-530, all DTE Max System Capacity E1 60 voice calls 30 voice calls 8 voice calls 4 video calls @ up to 1.5Mbps 30 video calls @ 128Kbps 15 video calls @ 128Kbps 4 video calls@128Kbps 10 video calls @ 384Kbps 5 video calls @ 384Kbps 2 video calls@256Kbps 4 video calls @ 768Kbps 2 video calls @ 768Kbps 1 video call@384Kbps 2 video calls @ full E1 1 video call @ full E1 1 video call@512Kbps Max System Capacity T1 46 voice calls 23 voice calls 23 video calls @ 128Kbps 11 video calls @ 128Kbps 7 video calls @ 384Kbps 3 video calls @ 384Kbps 3 video calls @ 768Kbps 1 video call @ 768Kbps 2 video calls @ full T1 1 video cal l@ full T1 Network protocols: Audio Protocols: Call Bonding3: Network and Reliability Support: • H.323 over IP • G.711 • ISDN call bonding of up to • Dynamic routing of IP calls to neighboring • H.320 over ISDN • G.722 2MB (E1) Gateways based on resource availability • H.3202 over V.35/ • G.722.11 • 1.5MB (T1) on PRI connections, • Downspeeding support4 RS-449/ EIA-530 • G.723.1 • 512Kbps for BRI • Network optimization for high call • G.728 • Downspeeding support4 completion Video Protocols: • H.320 line related auto registration • H.261 Audio Transcoding: Management: • Network Specific Facility (NSF)3 • H.263 • G.728<>G.711 • SNMP • QoS support with DiffServe, IP TOS • H.263+1 • G.711<>G.723 • HTTP - embedded Web Server and precedence • H.263 ++1 • Advanced IP packet handling Data Collaboration: Call Routing: ensuring high quality Video Resolution: • T.120 • Built-in Interactive voice response (IVR) communications1 • QCIF • Direct Inward Dialing (DID) • Fast connect for voice calls4 • CIF Line Echo Cancellation3 • TCS4 • S40 supports the LOS signal and is • 4CIF1 • Default extension for operator assistance seamlessly interoperable with encryption • 16CIF1 • Flexible/configurable IP dial plan devices such as KIV7, used in federal and • RS366 signaling2 military markets 1 Specific to gw-P20, gw-P10 and gw-S40 Gateways 2 Specific to gw-S40 Gateway 3 Not supported with the gw-S40 Gateway 4 Specific to gw-P20 and gw-P10 Gateways More detailed technical specifications on RADVISION viaIP gateways are available from RADVISION sales agents or VARs, or contact at the address below and we will be happy to forward the full technical specifications and operating information to you About RADVISION RADVISION (Nasdaq: RVSN) is the industry’s leading provider of products and technologies for videoconferencing, video telephony, voice over IP, and collaborative communications solutions. RADVISION offers the broadest and most complete set of videoconferencing networking systems and next generation protocol toolkits and platforms on the market today, enabling enterprises, equipment vendors, and service providers to develop and deploy new converged networks, services and technologies. Today, hundreds of thousands of end-users around the world communicate over a wide variety of networks using products and solutions built around RADVISION’s rich media communications platforms and/or software development solutions. These include RADVISION’s award-winning videoconferencing infrastructure solutions such as its highly scalable IP/ISDN interworked gateways, feature-rich conferencing bridges, and advanced gatekeeper applications. RADVISION’s enabling technologies for OEM systems include developer toolkits for SIP, MEGACO/H.248, MGCP, and H.323, 3G-324M wireless multimedia delivery, and the ProLab™ Test Management Suite. For more information please visit our website at www.radvision.com. USA/Americas Europe Hong Kong China United Kingdom / Middle East Tel -+201.689.6300 Tel -+972.3.767.9300 Tel -+852.2801.4070 Tel -+86.10.8808.6248 Tel -+44.193.2.268.315 Fax-+201.689.6301 Fax-+972.3.767.9550 Fax-+852.2801.4071 Fax-+86.10.6581.3669 Fax-+44.193.2.268.318 infoUSA@radvision.com infoEUROPE@radvision.com infoAPAC@radvision.com infoAPAC@radvision.com infoUK@radvision.com Product specifications subject to change without notice. This document is not part of a contract or license as may be expressly agreed. RADVISION is a registered trademark of RADVISION, Ltd. viaIP and ProLab are trademarks of RADVISION, Ltd. All trademarks recognized. All rights reserved. © 2002 RADVISION, Ltd. 46008-00001-A, 08-03 vPoint A high-quality software-based videoconferencing system Additional Features vPoint is the latest software client architecture – Low-cost, high-quality IP videoconferencing – Still image capture for VCON personal conferencing solutions. – Automatically senses appropriate mode – Personal address book vPoint brings video to every employee’s – Speed dial directory based on connected hardware providing desktop, enabling realtime communications – Conference status versatility and ease of usebetween employees and customers and giving monitor – Customizable short- people access to information they can use and – Multiple viewing modes from mini-mode to cut tray respond to immediately. vPoint is light, flexible full screen – International and versatile, dynamically operating in three – VCON PacketAssist™ architecture for languages modes, depending on the hardware connected advanced Quality of Service (QoS) over IP to the PC. vPoint delivers a high video Key MXM Features – One to many broadcast streaming using resolution and refresh rate supporting up to – Call forward VCON's Interactive Multicast support 30fps and includes full-duplex echo – Call transfer cancellation, making it the highest quality – Remote software upgrades from network – Call pickup – Ad-hoc conferencing software-based videoconferencing system administrator guarantee uniformity across – Offline mode available. The low cost of vPoint combined the organization (with MXM) – Online directory with its flexibility and high performance makes – User mobility it the perfect videoconferencing solution for – Remote any organization. configuration – Remote call Operates in 3 modes initiation – Remote software upgrade vPoint dynamically operates in 3 modes, depending on the hardware connected to the PC. With a USB camera, vPoint is a low-cost software-based solution with full conferencing capabilities on VCON Recommended PCs 1Ghz and higher. For the traveling user with no camera attached, vPoint’s Viewer+ mode USB Cameras provides two-way audio and one-way video, enabling remote participation in important – Creative WebCam conferences and broadcasts while maintaining business quality. With VCON ViGO™ attached, Pro eX vPoint becomes a hardware-accelerated conferencing client with business quality audio and video ***** – Logitech QuickCam on PCs from 350Mhz and higher. Pro 4000 ***** The MXM Difference – Logitech QuickCam Pro 3000 ***** When deployed in conjunction with vPoint, the MXM provides the advanced technology needed – Philips ToUcam Pro for high-quality videoconferencing throughout the organization. Now, with the click of a button, **** users can “invite” a 3rd party into their videoconference, a revolutionary feature called “ad-hoc conferencing” that automatically places the users in a multi-point conference bridge. Other video telephony features, such as video call transfer and video call forward are also a part of vPoint. Additionally, from the MXM console, the network administrator can remotely upgrade all vPoint endpoints, as well as manage those endpoints on a day-to-day basis. VCON’s vPoint adds the crucial visual dimension to remote business interactions. vPoint Minimum PC Requirements Software-based mode: Hardware-accelerated (ViGO) mode: – Pentium III 1Ghz PC – Pentium II 350Mhz PC – Windows 98, ME, 2000, XP – Windows 98, ME, 2000, XP – 40MB available disk space – 40MB available disk space – 64MB Memory for 98, ME, 2000 – 64MB Memory for 98, ME, 2000 – 128MB Memory for XP – 128MB Memory for XP – Direct Draw Support (2MB VRAM) – Direct Draw Support (2MB VRAM) – USB camera or video capture card connected to PC – Soundcard-supported mic and speakers – 2 available USB ports What’s in the Box? (vPoint software-based) vPoint Professional: vPoint Standard: – vPoint software installation CD – vPoint software installation CD – USB camera – Getting started guide – Headset – USB Software Protection Key – Getting started guide – USB Software Protection Key Specifications Standards Supported ITU-T: H.323 v3 Viewing modes Mini screen Video Standards Regular screen H.261, H.263 Large screen Supports asymmetric video rates Full screen Annex Q (Far End Camera Conrol over IP) Data Collaboration Audio Standards Integrated Microsoft NetMeeting G.711, G.728, G.722, G.723.1 Application Sharing File Transfer Data Standards Whiteboard T.120 (data collaboration) Streaming Capabilities Transmission speed Interactive Multicast chair 64Kbps – 1.5Mbps Interactive Multicast participant VCON Headquarters Video Resolution Languages supported Tel: +972 9 959 0059 FCIF (352 x 288 pixels) @ 30fps English, French, German, Italian, Spanish (Spain Fax: +972 9 956 7244 QCIF (176 x 144 pixels) @ 30fps and Latin), Chinese and Japanese VCON Americas Audio features Tel: +1 512 583 7700 Full duplex echo cancellation Fax: +1 512 583 7701 Automatic noise suppression VCON Europe Tel: +49 89 614 57 0 Fax: +49 89 614 57 399 VCON China Tel: +86 10 65269791 Fax: +86 10 65269790 www.vcon com ©2004 VCON. All rights reserved. DOC 50101 Rev. 4 01/04 VTEL Vista™ Codec Feature Comparison System Features Vista EZ Vista MX Vista VX-P Vista PRO PC-integrated system with PC functionality in or out of a call. Windows® 2000 or XP. Capable of runnin g Microso ft® Office and third-party a a a a applications. Intel® CPU, 256 MB SDRAM, 30 GB hard disk drive, serial port. Form factor Sits on a table-top, desk-top, Settop Rack-mount or shelf PC chassis for in- or standard rack-mountable cabinet use shelf Applications Videoconferencing for small Small conference room, small Medium-to-large Medium-to-large office, home office, small classroom, office, home conference room / conference room / conference room, or smaller office, or for mobile distance classroom, executive classroom, executive classrooms and distance learning applications. boardroom, integrator’s boardroom, learning applications. platform for customer integrator’s platform applications for custom or complex applications Available USB ports (optional USB hub available for 2 3 3 3 expansion) Removable storage CD-ROM, 3.5” floppy CD-ROM CD-ROM DVD-ROM drive, optional removable hard drive tray and frame Controls QuickTouch wireless hand- held remote control w/ a a a a Integrated keyboard & mouse Wireless full-size keyboard with integrated mouse Optional Optional Optional Optional Color video touchpanel control and display NA Optional Optional Optional Wired visual icon tablet NA Optional Optional Optional Serial Application Programming Interface (SAPI) a a a a for third-party control devices Communications ITU-T Standards Supported H.323 H.320/H.323 H.320/H.323 H.320/H.321/H.323 Optional integrated network interface cards supported NA Quad BRI Quad BRI, PRI/T1/E1, Quad BRI, PRI/T1/E1, (Ethernet 10/100 LAN DDM (V.35/RS-449) DDM (V.35/RS-449), standard on all) ATM WiFi internal wireless LAN card NA Optional Optional Optional WiFi wireless LAN external adapter through USB interface Optional Optional Optional Optional Transmission Rates For H.323/IP (standard) 56 – 1920 Kbps 56 – 1920 Kbps 56 – 1920 Kbps 56 – 1920 Kbps For H.320/ISDN (with optional NA 2 x 56/64 Kbps, 56 – 512 2 x 56/64 Kbps, 56 - 1920 2 x 56/64 Kbps, 56 - network interface card) Kbps Kbps 1920 Kbps Video H.261, H.263, FCIF, QCIF, 30FPS, NTSC, PAL a a a a Remote monitor output S-Video S-Video S-Video S-Video Data/Local monitor output S-Video, VGA or XGA S-Video, VGA or XGA S-Video, VGA or XGA S-Video, VGA or XGA Camera inputs 2 S-video Inputs (with VISCA Camera-1 Integrated 5 S-Video Inputs (with 4 S-Video Inputs (with controls), 1 VCR Input: S- Camera-2 S-Video (without Video VISCA support) VISCA controls), 1 VCR VISCA controls), 1 VCR input S-Video Input: S-Video VCR Input: S-Video Picture-In-Picture a a a a Dual monitor ready a a a a Cameras included (pan-tilt- zoom, auto-focus, 10X optical 1 1 - Integrated zoom, 40X digital zoom, Camera 1 1 VISCA controls) Far-end camera control in H.320 & H.323 a a a a VTEL P/N 915-0006-01 VTEL Products Corporation www.vtel.com 800-299-VTEL or (512) 821-7000 VTEL Vista™ Codec Feature Comparison (cont.) Graphics Vista EZ Vista MX Vista VX-P Vista PRO Resolution Slide capture in JPEG format, 704 pixels x 576 a a a a lines x 24 bits H.261 Annex D (4 x a a a a FCIF) XGA display (1024 x a a a a 768) Audio G.722, G.711, G.728, Full Duplex, adaptive acoustic echo canceling, noise suppression, a a a a automatic microphone level adjustment Integrated multimedia a a a a sound Audio outputs Line level output, VCR output Line level output, VCR output Line level output, VCR Line level output, output VCR output Audio inputs 2 mic inputs, VCR input 2 mic inputs, VCR input 3 mic inputs, VCR input, 3 mic inputs, VCR Line level input input, Line level input Omni-directional microphones included 1 1 1 1 Telephone add-in (USA a a a a only) Presentation Tools Pen Pal Graphics  for slide creation, sending, Slide Send Only a a a and capture (supports Microsoft PowerPoint) SmartView hands free slide sending software for use with any document camera (dual- NA a a a monitor configuration required) SmartBoard integrated, interactive NA Optional Optional Optional whiteboard VCR Optional Optional Optional Optional Document Camera Optional Optional Optional Optional Remote Management SmartVideoNet Manager client for a a a a SNMP remote management Remote Software Update client a a a a VTEL, the VTEL logo and Vista are trademarks of VTEL Products Corporation. All other trademarks and registered trademarks are the property of their respective owners. Specifications are subject to change. VTEL is not liable for technical or editorial errors or omissions. Copyright (C) 2004 VTEL Products Corp. All rights reserved. VTEL P/N 915-0006-01 VTEL Products Corporation www.vtel.com 800-299-VTEL or (512) 821-7000