Teoría de la información JOSE LUIS PEREA VEGA Red Tercer Milenio TEORÍA DE LA INFORMACIÓN TEORÍA DE LA INFORMACIÓN JOSE LUIS PEREA VEGA RED TERCER MILENIO AVISO LEGAL Derechos Reservados 2012, por RED TERCER MILENIO S.C. Viveros de Asís 96, Col. Viveros de la Loma, Tlalnepantla, C.P. 54080, Estado de México. Prohibida la reproducción parcial o total por cualquier medio, sin la autorización por escrito del titular de los derechos. Datos para catalogación bibliográfica José Luis Perea Vega Teoría de la información ISBN 978-607-733-034-9 Primera edición: 2012 Revisión editorial: Eduardo Durán Valdivieso DIRECTORIO José Luis García Luna Martínez Director General Jesús Andrés Carranza Castellanos Director Corporativo de Administración Rafael Campos Hernández Director Académico Corporativo Héctor Raúl Gutiérrez Zamora Ferreira Director Corporativo de Finanzas Bárbara Jean Mair Rowberry Directora Corporativa de Operaciones Alejandro Pérez Ruiz Director Corporativo de Expansión y Proyectos ÍNDICE Introducción 3 Mapa conceptual 4 Unidad 1. Sistemas de comunicación 5 1.1. MODELO BÁSICO 1.2. REDES DE COMPUTADORAS Autoevaluación 8 13 19 Unidad 2. Codificación 21 2.1 TIPOS DE CÓDIGOS 2.2 COMPRESIÓN 2.3 CRIPTOGRAFÍA 2.4 ERRORES Autoevaluación 24 37 42 43 46 Unidad 3. Transmisión 48 3.1 ESPECTRO ELECTROMAGNÉTICO 3.2 MEDIOS 3.3 MODOS 3.4 TÉCNICAS 3.5 SEÑALES Autoevaluación 52 54 60 60 62 64 Unidad 4. Teorías de la información 66 4.1 CLÁSICA 4.2 CUÁNTICA Autoevaluación Bibliografía Glosario 69 75 85 87 88 2 INTRODUCCIÓN Algunas décadas anteriores a la era cristina el gobernador romano Julio Cesar utilizaba un método que usaba la trasposición de letras para proteger sus mensajes. A lo largo de la historia se han buscado técnicas de protección para la información, el desarrollo de nuevas tecnologías se acelera bajo condiciones de guerra como en el caso de la segunda guerra mundial donde se dio una carrera por descifrar comunicaciones entre alemanes y aliados. Bajo estas circunstancias emergió la computadora electrónica para aplicaciones militares y científicas cuya arquitectura seguimos utilizando. La búsqueda de mayores velocidades y capacidad de cálculo junto con la reducción de tamaño ha llegado al límite de la materia, en este punto el comportamiento físico cambia, pasando de la certidumbre a la presencia del azar, dando origen a la computadora cuántica que incrementa exponencialmente su potencia con respecto a su antecesora. Ante este panorama el manejo de la información tiene nuevos retos debiendo cuidar la representación física y lógica de los datos. El uso de componentes cuánticos promete dar solución a problemas que con la capacidad de cómputo actual tardarían demasiado tiempo en resolverse, sin embargo esta misma característica se usa como mecanismo de protección de datos cuando se hacen algunas transacciones electrónicas, requiriendo la búsqueda de nuevos sistemas de seguridad para la información antes de que las computadoras cuánticas se comercialicen. 3 MAPA CONCEPTUAL La Información enlaza Sistemas de comunicación utilizando Códigos que son Transmitidos con fundamentos Teóricos 4 UNIDAD 1 SISTEMAS DE COMUNICACIÓN OBJETIVO El estudiante comprenderá la estructura y las bases físicas que permiten el funcionamiento e interconexión de los sistemas de comunicación. TEMARIO 1.1. MODELO BÁSICO 1.1.1. FUENTE 1.1.2. TRANSMISOR 1.1.3. CANAL 1.1.4. RECEPTOR 1.1.5. DESTINO 1.1.6. MENSAJE 1.1.7. SEÑAL 1.1.7.1. ANALÓGICA 1.1.7.2. DIGITAL 1.1.8. RUIDO 1.2. REDES DE COMPUTADORAS 1.2.1. CLASIFICACIÓN 1.2.2. PROTOCOLOS 1.2.3. TOPOLOGÍAS 5 MAPA CONCEPTUAL Un Sistema de comunicación requiere de una Fuente alimentando a un Transmisor preparando el Mensaje enviado por Canales mediante Señales hacia uno o más Receptores pudiendo formar Redes utilizando Protocolos organizadas mediante Topologías 6 INTRODUCCIÓN Los lenguajes han permitido que evolucionemos como sociedad haciendo posible compartir conocimientos; así, para llevarlo a cabo mediante computadoras y otros equipos, se han desarrollado técnicas que logran traducciones de la forma más confiable, utilizando herramientas matemáticas y tecnológicas. 7 1.1 MODELO BÁSICO En su libro El arte de la guerra, Sun Tzu dedica una parte al espionaje, resaltando la importancia de conocer la información acerca de los planes del oponente. En la antigüedad, el emperador Julio Cesar utilizó un método para proteger los mensajes que enviaba, mediante el corrimiento de los caracteres del alfabeto: A se convierte en D, B en E y así sucesivamente. A este proceso se le denomina codificación y se dice que el mensaje resultante está cifrado. Durante la Segunda Guerra Mundial, el ejército alemán utilizó un equipo de codificación electromecánico llamado Enigma, éste fue inventado por Alexander Koch en 1919 y comercializado en 1920 en tres versiones, una era portátil, sin impresora y representaba luminosamente las letras. Su mecanismo se basaba en rotores, cada uno de los cuales aumentaba la complejidad del cifrado, tuvieron entre tres y cinco. La necesidad de conocer el contenido los mensajes motivó a los ingleses a implementar un centro conocido como Bletchley Park, ubicado en una mansión en Buckinghamshire, ahí también se utilizó la primera computadora británica llamada Colossus en febrero de 1944, diseñada por Tommy Flowers estaba constituida por más de 1500 tubos de vacío, los cuales podían representar cero o uno, estos dos valores representan el sistema mínimo de información, a tal sistema se le denomina binario y fue propuesto por el matemático alemán Leibniz en el siglo XVII. Dentro de la computadora, cada cero o uno recibe el nombre de bit (acrónimo de binary digit) término acuñado por John Tuckey a finales de la década de 1940, se utiliza esta representación porque es más fácil implementarla mediante circuitos; uno de los trabajos pioneros en este sentido fue presentado como tesis doctoral por el ingeniero eléctrico estadounidense Claude Shannon, obteniendo su grado en matemáticas. En 1948 publicó A Mathematical Theory of Communication en donde aborda dos problemas fundamentales: El nivel de compresión de los mensajes de tal forma que sea más eficiente la comunicación en ausencia de interferencia. 8 Si existen interferencias, cuán repetitivo debe ser el mensaje. Por este trabajo a Shannon se le conoce como padre de la teoría de la información, lo elaboró mientras trabajaba para BELL TELEPHONE LABORATORIES. Esquematiza el proceso de comunicación como sigue: Fuente de informació Transmis n or Señal Señal Recepto Destin recibida r o Mensaje Mensaje Fuente de ruido 1.1.1. Fuente Es en donde se genera el mensaje que puede ser de diferentes tipos: Secuencias de caracteres de un alfabeto determinado. Funciones matemáticas que dependan del tiempo como el caso de la radio frecuencia. Funciones matemáticas que dependan de diversas variables como las coordenadas de posición y algún otro parámetro, por ejemplo los puntos de color (pixeles) en la pantalla de una computadora, o ubicación y brillantez en un dispositivo monocromático. Funciones combinadas, fenómeno que se presenta cuando se envían audio y video simultáneamente. 9 www.karbosguide.com 1.1.2. Transmisor Codifica y transforma el mensaje de tal forma que pueda ser enviado a través de un medio. Por ejemplo: en la transmisión radial con amplitud modulada (AM), la frecuencia de audio (denominada moduladora) se convierte en frecuencia de radio cuando se mezcla con una señal adicional (conocida como portadora) que proviene de otra fuente, pasando de un rango de 300 Hz a los 3.4 kHz, a otro que va de 535 kHz hasta 1.7 MHz. Un hercio (Hz) es la unidad que representa un ciclo por segundo). www.karbosguide.com www.technologyuk.net 10 1.1.3. Canal Es el medio a través del cual viaja la información, puede ser cableado o inalámbrico. La capacidad del canal es la velocidad máxima de transmisión, mientras que el ancho de banda determina la tasa de transferencia (unidades/tiempo). El ingeniero sueco Harry Nyquist estableció una expresión que relaciona las magnitudes anteriores: dado un ancho de banda B, la mayor velocidad de transmisión de la señal que se puede conseguir es 2B, suponiendo que se trata de un medio ideal (carente de ruido) y que el mensaje está compuesto por bits, involucrando solamente dos niveles de tensión. 1.1.4. Receptor Hace la función inversa del transmisor. 1.1.5. Destino Es el punto final de llegada para el mensaje. 1.1.6. Mensaje Existe otro enfoque acerca de la teoría de la información, fue desarrollado por el matemático Norbert Wiener, para él resultaban importantes los mensajes que se envían por y a través de los seres vivos, dentro de su medio así como en su interior, lo que permite a un ser humano coordinar los movimientos de la mano para alcanzar un vaso, a partir de impulsos eléctricos enviados por las neuronas. Este proceso también se puede llevar a cabo usando máquinas, tal como los robots que desactivan bombas. Wiener presentó sus estudios en el libro Cibernética en 1948. 1.1.7. Señal La comunicación entre dos entidades se logra a través de señales, que pueden ser discretas o continuas. Las primeras toman un número limitado de valores y 11 reciben el nombre de digitales mientras que las segundas tienen un comportamiento de onda y se conocen como analógicas. Como ejemplo se puede comparar un mensaje en código Morse contra su versión hablada. Al proceso que selecciona un número de valores discretos a partir de una señal continua, se le conoce como muestreo. La tasa o frecuencia de muestreo, es la cantidad de mediciones que se hacen por unidad de tiempo. Después de realizar el muestreo se requiere de un procedimiento conocido como cuantificación, que se encarga de asignar a cada valor dentro de cierto rango, su equivalente en código binario, tomando en cuenta que el número de bits define los límites de los rangos. 1.1.7.1. Analógica Representan magnitudes físicas como la temperatura, luz, sonido o energía. Su representación gráfica describe una onda senoidal. 1.1.7.2. Digital Toda la información se manda como bits independientemente de su contenido, señales de audio y video deben ser preparadas para su transmisión si 12 provienen de fuente analógicas, tal como sucede cuando se hace una llamada a través del chat. 1.1.8. Ruido A las señales no deseadas que contaminan el mensaje, se les denomina ruido. Éste se puede clasificar en: Térmico. Lo genera la agitación de los electrones en función de la temperatura, a veces se le denomina ruido blanco y no se le puede suprimir. Intermodulación. Aparece cuando distintas frecuencias comparten un medio, combinándose mediante la suma, resta o multiplicación de las mismas, creando una nueva señal. Diafonía. Se produce cuando una transmisión se contamina con otra, como en el caso de escuchar otra conversación mientras se habla por teléfono. Impulsivo. A diferencia de los anteriores tipos, no es de magnitud constante, presenta picos de corta duración y de gran amplitud, puede originarse por condiciones meteorológicas o por fallas en los sistemas de comunicación. ACTIVIDAD DE APRENDIZAJE Busca en Internet un simulador de la máquina Enigma e investiga su funcionamiento. 1.2 REDES DE COMPUTADORAS La computadora por sí misma representa un sistema de comunicación completo, recibe datos a través del teclado que son procesados para presentarse en la pantalla y ser almacenados o impresos. Con el mismo surgimiento de la computadora se presentó la necesidad de interconectarlas, 13 con el propósito de aumentar la capacidad de procesamiento así como también la compartición de datos, dispositivos de almacenamiento, impresión y comunicación. 1.2.1 Clasificación Las redes se pueden clasificar de acuerdo con su extensión geográfica en: PAN (Personal Area Network). Formada a partir de los diferentes dispositivos de comunicación que puede tener una persona: computadora, celular, PDA, consola de juegos. LAN (Local Area Network). Es la más común ya que puede abarcar uno o varios edificios. MAN (Metropolitan Area Network). Abarcan a ciudades o algunos tipos de organizaciones que tienen muchas sucursales como los bancos o cadenas comerciales. WAN (Wide Area Network). Es la unión de todas la anteriores, en esta categoría se ubica Internet. También existen otros tipos de acuerdo con la función que desempeñan: SAN (Storage Area Network). Son redes dedicadas a transferir datos entre servidores evitando el tráfico de las redes compartidas. VPN (Virtual Private Network). Se implementa usando la infraestructura de Internet pero creando una conexión personalizada más segura. 1.2.2. Protocolos Un protocolo es un conjunto de reglas y convenciones que permiten la comunicación. Para hacer compatibles las redes se creó en 1984 el modelo OSI (interconexión de sistemas abiertos, por sus siglas en inglés) que consta de siete capas, cada una con sus protocolos que van modificando el mensaje desde que lo escribe el usuario hasta que sale a través de un cable o antena. 14 Existen protocolos enfocados a la seguridad de la información que son indispensables cuando se hacen compras o transacciones bancarias mediante Internet. 1.2.3. Topologías La topología establece la estructura de la red, existen dos categorías: Física. Está determinada por el patrón geométrico que forman los equipos conectados. Lógica. Se establece a partir de las rutas que deben seguir los datos a través de la red. Las que se usan generalmente son: Los datos viajan por Anillo cada uno de equipos los hasta encontrar su destino. Es la más utilizada porque la conexión de Estrella cada equipo no de la depende disponibilidad de los demás. Es muy vulnerable ya que requiere que todos Bus los equipos no fallen para seguir funcionando. 15 Puede Jerárquica tener desempeño tiene mayor menor pero se control sobre el flujo de datos. Malla Es la estructura que tiene Internet ACTIVIDAD DE APRENDIZAJE Investiga cuáles son las diferencias en entre los modelos de capas OSI y TCP/IP. EJEMPLOS DE APLICACIÓN1 Debido a que el mundo físico lo percibimos mediante señales analógicas, es necesario realizar procesos de conversión antes de poderlas introducir a la computadora. Dos sentidos que nos permiten interactuar con los demás son la vista y la audición, cuando los procesamos en el cerebro, nos permiten dar una respuesta mediante la voz o de alguna otra forma que constituya un lenguaje. A continuación se presentan algunos dispositivos electrónicos encargados de hacer éstas tareas a través de ordenadores. MODEM El modem (modulador-demodulador) fue desarrollado con fines militares durante la década de 1950 para la comunicación de datos. La existencia de una red telefónica para la transmisión de voz que podría ser aprovechada, requirió 1 Tomado de Lógica computacional, (IN04) Aliat Universidades, 2010. 16 que se diseñara un dispositivo capaz de convertir bits en señales audibles, que pudieran viajar a través de las líneas existentes. © Facultat d'Informàtica de Barcelona AT&T lanzó al mercado un modem con una tasa de transmisión de 300 bits por segundo en el año 1962 usando FSK. En 1996, el doctor Townshed desarrolló uno que podía enviar 56Kb. Al proceso de transportar datos a través de ondas variando su frecuencia (pitch), se le conoce como modulación. Una de estas técnicas se denomina Frecuency-shift keying (FSK), su versión más simple es la binaria o BFSK, la cual utiliza dos tonos: marca, que representa uno; y espacio, equivalente a cero. Una vez que la señal llega a su destino se utiliza el proceso inverso conocido como demodulación. 17 NAVEGACIÓN MEDIANTE VOZ Los sistemas de navegación que permiten interactuar a través de la voz, necesitan reducir las interferencias provocadas por la gran cantidad de sonidos provenientes del medio ambiente. La voz del conductor es recibida por un micrófono y filtrada para quitar el eco y eliminar ruidos, también se debe distinguir entre solicitudes del usuario y respuestas generadas por el sistema para no producir ciclos, como quien ve a su sombra de forma que fuera otra persona. A continuación, las ondas son recibidas por el sistema de análisis de voz, capaz de reconocer fonemas y construir frases, que serán digitalizadas y procesadas para producir respuestas en forma de audio, que puedan ser usadas por el conductor. 18 AUTOEVALUACIÓN Elige el inciso correcto. A. Es la topología que permite la menor dependencia de los equipos. a) Jerárquica b) Bus c) Estrella d) Anillo c) Diafonía d) Impulsivo B. A veces es llamado ruido blanco. a) Térmico b) Intermodular C. Desarrolló el sistema binario de numeración. a) Leibniz b) Shannon c) Koch d) Wiener D. Es un tipo de señal que toma un número limitado de valores. a) Analógica b) Digital c) Modulada d) Portadora E. Es conocido como el padre de la teoría de la información. a) Shannon b) Wiener c) Flowers d) Leibniz Completa las frases. F. Los canales de comunicación pueden ser G. La frecuencia se mide en H. La función de un transmisor es ______ . . _____________________________. . I. Un protocolo es ________________________________________________ . J. Un medio ideal es el que . RESPUESTAS DE LA AUTOEVALUACIÓN A. c. B. a. C. a. D. b. E. a. F. Cableados e inalámbricos. G. Hercios. 19 H. Codificar y transformar el mensaje. I. Un conjunto de reglas y convenciones que permiten la comunicación. J. Está libre de ruido. 20 UNIDAD 2 CODIFICACIÓN OBJETIVO El alumno comprenderá los procesos de transformación entre símbolos que representan datos para su procesamiento, transmisión, protección y manejo de errores. TEMARIO 2.1. TIPOS DE CÓDIGOS 2.1.1. BINARIOS 2.1.1.1. BAUDOT 2.1.1.2. ASCII 2.1.1.3. EBCDIC 2.1.2. ALGEBRAICOS 2.1.3. LINEALES 2.1.3.1. HAMMING 2.2. COMPRESIÓN 2.2.1. LOSSLESS 2.2.2. LOSSY 2.2.3. CÓDIGO SHANNON-FANO 2.2.4. CÓDIGO HUFFMAN 2.3. CRIPTOGRAFÍA 2.4. ERRORES 2.4.1. NATURALEZA DE LOS ERRORES 2.4.2. ALGORITMOS DE DETECCIÓN 2.4.2.1. PARIDAD 2.4.2.2. CHECKSUM 2.4.2.3. REDUNDANCIA CÍCLICA 21 MAPA CONCEPTUAL Los Datos se Codifican usando Métodos buscando su Binarios Polinomiale s Estadístico s Compresión protegiéndolos mediante Criptografía con el adecuado manejo de Errores 22 INTRODUCCIÓN En la evolución de los modelos que permiten el procesamiento automático de datos, se han utilizado las herramientas matemáticas más diversas, desde la estadística hasta el álgebra abstracta, así como todos los avances de la física de semiconductores, con un sólo propósito: lograr que la información sea completamente confiable, oportuna y segura. 23 2.1 TIPOS DE CÓDIGOS Un código crea una correspondencia entre los elementos de un conjunto con otro. Los códigos de bloque dividen la información en paquetes de menor tamaño mientras que los convolucionales manejan el mensaje completo, en donde cada elemento codificado depende de los anteriores. 2.1.1 Binarios El sistema binario utiliza el mínimo conjunto de símbolos para representar información. Está formado por cero y uno, a cualquiera de los dos valores lo llamaremos bit. La agrupación de ocho bits la denominaremos byte, con el cual se pueden formar 256 combinaciones distintas. Si hacemos la representación usando ocho casillas, la primera puede contener dos números posibles, por cada uno la siguiente tendría otros dos y así sucesivamente. 2 x 2 x 2 x 2 x 2 x 2 x 2 x =28=256 2 Con n bits se obtienen 2n combinaciones. La representación del número 10112 sería la siguiente: 3 2 1 0 1 0 1 1 2 Por ser un sistema numérico posicional se eleva la base a cada exponente haciendo la suma: 1x23 + 0x22 + 1x21 + 1x20 = 1x8 + 0x4 + 1x2 + 1x1 = 11 Se ha encontrado que 10112 = 1110. De esta forma se convierten números en base dos a base 10. Para realizar el procedimiento inverso se llevan a cabo los siguientes pasos: Paso 1. Se traza una línea divisoria y se escribe el número en base 10 en la parte superior izquierda. 11 24 Paso 2. Se divide el número entre dos y se anula el decimal del cociente (si es que lo tiene). 11 5.5 Paso 3. Se repite el paso dos hasta llegar a uno. 11 5 2 1 Paso 4. Se copia el uno a la parte inferior derecha. 11 5 2 1 1 Paso 5. Al lado derecho de cada número impar se escribe uno y si es par, cero. 11 1 5 1 2 0 1 1 Paso 6. Se copian los números del lado derecho de abajo hacia arriba y se acomodan de izquierda a derecha. 11 1 5 1 2 0 1 1 10112 25 Con este procedimiento se ha convertido 1110 en 10112. Para realizar una suma en base 10 con los números nueve y uno. 1 + 9 Cada vez que la suma de 1 dos números es 10 o más se dice que “llevamos uno” 0 poniéndolo arriba a la izquierda de los sumandos. 9 + 1 1 0 De la misma forma, en sistema binario cada vez que la suma de dos números es igual a la base, escribimos cero debajo de los sumandos y “llevamos uno”. 1 1 + 1 1 0 2 Si hay tres sumandos o más, la suma se obtiene trabajando con dos a la vez. Ejemplo: 1 1 + 1 1 2 1 1 26 + 1 0 2 1 1 1 + 1 1 0 + 1 1 1 2 2 1 1 1 + 1 0 0 2 2.1.1.1 Baudot El matemático alemán Friedrich Gauss junto a Wilhelm Weber, implementaron un telégrafo mediante un código que desarrollaron en 1833. Sobre esta base el francés Émile Baudot creó un código de cinco bits en 1870 que se operaba a través del uso de cinco dedos. En el álbum X&Y del grupo británico Coldplay se ha utilizado una versión estilizada de esta técnica. 27 Ejemplo de código Baudot © www.nadcomm.com 2.1.1.2 ASCII Un código ampliamente usado es el ASCII (american standard code for information interchange) que representa, mediante números, los caracteres del alfabeto latino. Usa siete bits para llevar a cabo esta equivalencia. 2.1.1.3 EBCDIC En 1964 IBM anunció el lanzamiento de la familia de computadoras 360 desde el modelo 20 (minicomutadora) hasta el 91 (supercomputadora), para lo cual desarrolló el EBCDIC (extended binary coded decimal interchange) utilizando ocho bits que forman un byte o dos nibbles. Cada nibble se usa como coordenada de una tabla, el de lado izquierdo se denomina zona mientras que el derecho se llama número. 28 ©www.tpub.com 2.1.2 Algebraicos La aritmética modular fue introducida por Gauss (llamado el príncipe de las matemáticas), en 1801 mediante el estudio de la congruencia. Un número a es congruente con otro representado por b si al dividir a cada uno entre c se obtiene el mismo residuo, simbolizándose como: ab mod c Ejemplo 1. 57 mod 2 ya que 5=2(2)+1 y 7=2(3)+1 Ejemplo 2. 2311 mod 12 2210 mod 12 219 mod 12 Ésta es la representación que se usa para las horas, por tal razón, a la aritmética modular también se le denomina aritmética de reloj, necesitando solo 12 símbolos, aunque el número de horas aumente indefinidamente. 29 El procedimiento anterior se puede realizar con polinomios, comparando los residuos al dividirlos. Ejemplo 3. División de polinomios. x+3 x+1 x2+4x+11 -x2-x 3x+11 -3x-3 8 x-5 x+1 x2-4x+3 -x2-x -5x+3 5x+5 8 Partiendo de los resultados se puede decir que el polinomio x2+4x+11 es congruente con x2-4x+3 módulo x+1. Clasificándose como sigue: Polinomio Tipo Característica Se puede expresar como x2+4x+11 Reducible resultado de operaciones con otros polinomios. x+5 Irreducible No se puede reducir. Es irreducible y genera a los demás polinomios de x+1 Primitivo primer grado, éste es el valor de la potencia más alta de la variable x. 30 El matemático francés Evariste Galois (quien murió a los 20 años en un duelo) estudió los polinomios y sus operaciones, utilizando una estructura denominada campo finito también conocida como campo de Galois que se representa por GF(p) siendo p un número primo, esto significa que sólo se puede dividir entre sí mismo y la unidad. El valor de p indica el número de elementos del campo, conocido como orden o cardinalidad. Si p=2k se dice que es un campo de extensión con característica 2, siendo k un entero. Existen los denominados campos compuestos que tienen la forma GF((pn)m). El polinomio primitivo de segundo grado es x2+x+1 dentro de GF(22). Existen dos valores que si se sustituyen en el polinomio lo igualan a cero, son llamados raíces, tomando una raíz y denominándola α se puede escribir α2+α+1=0, se despeja α2 obteniendo α2=-(α+1) pero en aritmética de los campos, suma y resta son equivalentes, haciendo que α2=α+1. Si se construye una tabla en donde se evalúen las potencias de α junto a su “representación” en binario y decimal, obtenemos: Binario Potenci a de α Valor α0 1 α1 α α2 α+1 Comentario Toda expresión elevada a la potencia cero, vale uno. Este valor se obtuvo en el despeje α2=α+1. α1 α0 Decimal 0 1 1 1 0 2 1 1 3 0 1 1 α3= α(α2)= α(α+1)= α2+α= α+1+α=1 Hay que recordar que α3 1 la suma y la resta son equivalentes, así α+ α=0. A partir de esta potencia los valores se repiten, esto 31 garantiza que las operaciones que se hagan con los polinomios nunca tendrán resultados diferentes a 1, α ó α+1. α4 α α4= α(α3)= α(1)= α 1 0 2 Ejercicio 1. Comprueba que α3 = α6, α4 = α7 y α5 = α8. La cardinalidad de GF(22) es cuatro, al elaborar la tabla (que depende de potencias) no aparece el valor cero pero se agrega. La utilidad de la representación binaria es que se pueden hacer operaciones entre los polinomios a través de los ceros y unos. Ejemplo 4. Calcula el producto x(x+1) en GF(22). Paso 1. Convertir cada polinomio a su valor en binario y efectuar la multiplicación. X 1 1 1 0 0 0 1 1 1 1 0 Si se transforma 110 en su equivalente tendríamos x2+x, expresión que no forma parte del campo. Paso 2. Una vez que se ha calculado el producto, se le “suma” a la representación binaria del polinomio primitivo, en este caso x2+x+1 que tampoco se encuentra en el campo pero se usa para simplificación mediante la operación denominada XOR entre los bits, simbolizada por según la tabla: 0 1 0 0 1 32 1 1 0 1 1 0 1 1 1 0 0 1 Esta operación transforma x2+x en 1, lo que coincide con lo obtenido en la tabla de potencias. Ejemplo 5. Calcula el producto (x4+x+1)(x3+x2+x) en GF(25) usando el polinomio primitivo x5+x2+1. 1 0 0 1 1 x 1 1 1 0 0 0 0 0 0 1 0 0 1 1 1 0 0 1 1 1 0 0 1 1 1 0 0 0 0 1 0 1 0 1 0 0 0 0 1 0 1 0 1 0 0 1 0 1 0 0 0 1 0 0 0 1 0 1 0 0 1 0 1 1 1 1 El producto se convierte en x2+x+1, hay que hacer notar que la operación XOR se inició desde la izquierda, esto permite la reducción sucesiva del grado del polinomio. En 1959 Irving Reed y Gus Solomon publicaron un trabajo titulado Polinomial Codes over Certain Finite Fields, introduciendo un nuevo tipo de códigos que corrigen errores. Su técnica se utiliza en los discos compactos para enmendar los daños producidos en la información a causa de ralladuras, polvo, 33 huellas digitales, etc. encontradas en la superficie plástica del CD. También tiene aplicaciones en las telecomunicaciones, tal fue el caso del envío de imágenes del planeta Júpiter por la sonda espacial Voyager 2 en 1979. ©NASA/JPL El código Reed-Solomon toma k elementos de GF(p) usándolos como coeficientes de un polinomio sobre x de grado k-1 de la forma: P(x)=u0+u1x+u2x2+…+uk-1xk-1 Si denominamos α a un elemento primitivo del campo que se evalúa con cada una de sus potencias, se tiene: P(0)=u0 P(α)=u0+u1α+…+uk-1 α k-1 P(α2)=u0+u1α2+…+uk-1 α2( k-1) … P(αp-1)=u0+u1αp-1+…+uk-1 α(p-1)( k-1) Ejemplo 6. Codificación Reed-Solomon en GF(22). Paso 1. Se construye el polinomio de primer grado, si A y B son elementos del campo la forma general queda como: P(x)=A+Bx Haciendo A=1 y B=α2 se reescribe para obtener: 34 P(x)=1+ α2x Paso 2. Se evalúan las potencias de α en el polinomio anterior. P(0)=1+α2(1)=1 P(α)=1+α2(α)=1+α3=1+1=0 P(α2)= 1+α2(α2)=1+α4=1+α P(α3)= 1+α2(α3)=1+α5=1+α+1=α De esta forma se han codificado los elementos de GF(22) obteniendo: Valor Código 0 1 1 0 Α 1+α α+1 α Si se elabora la misma tabla con sus equivalencias en decimal, se forman coordenadas que se pueden graficar en un plano. Valor Código X Y 0 1 1 0 2 3 3 2 3.5 3 2.5 2 1.5 1 0.5 0 0 0.5 1 1.5 2 2.5 3 3.5 35 Ejercicio 2. Realiza el proceso anterior con A=α y B=α+1. 2.1.3 Lineales Un código se denomina lineal si al sumar dos elementos del mismo, el resultado forma también parte de él. Reed-Solomon pertenece a esta clasificación, así como el código Hamming. 2.1.3.1 Hamming El matemático norteamericano Richard Hamming colaboró en el Proyecto Manhattan que desarrolló la bomba atómica. Después de la guerra trabajó en los Laboratorios Bell junto a Shannon, debido a la tecnología utilizada para introducir datos a las computadoras Hamming encontró resultados inesperados en los cálculos que realizaba. Se propuso encontrar una forma para detectar y corregir errores de forma automática, cuyos resultados publicó en 1950. El primer código que presentó se conoce como Hamming(7,4), consiste en segmentos de siete bits (d1,d2,d3,d4,p1,p2,p3), cuatro de los cuales se usan para datos y tres sirven para verificación, éstos se denominan paridad, calculándose de la siguiente forma: p1=d2d3d4 p2=d1d3d4 p3=d1d2d4 Los bits se disponen en un arreglo rectangular de siete columnas y cuatro filas llamado matriz de 4x7 al que se representa habitualmente con letras mayúsculas. p1 p2 p3 d 1 d2 d3 d4 d1 0 1 1 1 0 0 0 d2 1 0 1 0 1 0 0 d3 1 1 0 0 0 1 0 d4 1 1 1 0 0 0 1 =A 36 La matriz puede variar dependiendo de las fórmulas que se usen para los bits de paridad. Para realizar la codificación se requiere la multiplicación de A por otra matriz de un solo renglón y cuatro columnas, ésta recibe el nombre de vector de tamaño 1x4, representa el dato de cuatro bits que se envía de un total de 16 opciones que son las combinaciones obtenidas, es decir 2 4=16. Ese conjunto constituye un alfabeto permitiendo la creación de mensajes. Para poder realizar el producto de matrices se verifica que el tamaño de columnas de una sea el mismo que el de filas de la otra. Ejemplo 7. Codificar el dato representado por 1001 usando Hamming(7,4). [1011] 0 1 1 1 0 0 0 1 0 1 0 1 0 0 1 1 0 0 0 1 0 1 1 1 0 0 0 1 Se procede a multiplicar cada columna del vector con cada fila de la primera columna de la matriz A, “sumando” los productos y repitiendo el proceso con todas las columnas. 1x00x11x11x1=0 1x10x01x11x1=1 1x10x11x01x1=1 1x10x01x01x0=1 1x00x11x01x0=0 1x00x01x11x0=1 1x00x01x01x1=1 El resultado se dispone en forma de vector con tamaño 1x7. [0111011] 37 Ejercicio 3. Asigna un valor decimal entre 0 y 15 a los siguientes símbolos: @, !, & y #; después convierte cada número a binario y codifícalo bajo Hamming(7,4). ACTIVIDAD DE APRENDIZAJE Investiga cuáles son las características del código BCD. 2.2 COMPRESIÓN Es la codificación de información de forma más eficiente para mejorar el rendimiento de los dispositivos de comunicación. Un método de compresión estático mantiene fija la tabla de conversión antes de la transmisión, mientras que uno dinámico cambia los códigos de equivalencia mientras se envían los datos, a este último también se le conoce como adaptativo. Una de las formas de medir el grado de compresión es a través de la razón: Tamaño Tasa compresión= de los datos de los datos de resultantes Tamaño originales La tasa se puede representar por bpb (bit per bit) que determina el número de bits comprimidos necesarios para representar un bit de entrada. En caso de texto se usa bpc (bits per character) mientras que si son imágenes es bpp (bits per pixel). El factor de compresión es el inverso de la tasa de compresión. Para medir el rendimiento de alguna herramienta de compresión se pueden usar conjuntos de distintos tipos de archivos que incluyen texto, imágenes y otros datos. Algunos de estos grupos tienen nombres como Calgary Corpus o Canterbury Corpus. 38 2.2.1 Lossless En este tipo de compresión el mensaje que se envía y el que llega deben ser idénticos, como en el caso de documentos y archivos personales, tanto de forma interna para almacenamiento como externamente a través de una red. El formato ZIP es un ejemplo de esta clasificación, fue dado a conocer en 1989 por Phil Katz fundador de PKWARE, no lo desarrolló de forma original, mejoró uno que ya existía bajo la autoría y registro de Thom Henderson quien demandó a Katz. 2.2.2 Lossy Bajo este esquema, la información codificada no es idéntica a la original, se utiliza principalmente en la transmisión de imágenes, video o audio. El tipo de archivo JPEG elaborado por JOINT PHOTOGRAPHIC EXPERTS GROUP, se basa en un análisis por zonas de los colores que forman una imagen, promediando los que son similares lo cual produce menor definición así como menor espacio de almacenamiento, lo que resulta muy importante cuando se usan recursos limitados, tal es el caso de Internet. 2.2.3 Código Shannon-Fano Desarrollado independientemente por Shannon y Robert Fano del Instituto Tecnológico de Masschusetts (MIT, por sus siglas en inglés). Este código tiene su base en la frecuencia estadística del uso de los caracteres de cierto alfabeto. Si tenemos la siguiente tabla de frecuencias: A 39 B 21 C 16 D 8 E 31 La secuencia que se debe seguir para la codificación es: Paso 1. Reacomodar la tabla según la frecuencia, de menor a mayor. 39 D 8 C 16 B 21 E 31 A 39 Paso 2. Se divide la lista en dos partes, tomando en cuenta que ambas deben tener una suma de frecuencias parecida. D 8 C 16 B 21 E 31 A 39 Paso 3. A una mitad se le asocia el número uno y a la otra cero. D 8 0 C 16 0 B 21 0 E 31 1 A 39 1 Paso 4. Se repiten los pasos 2 y 3 sucesivamente con cada una de las mitades hasta terminar los caracteres. Código D 8 0 0 0 C 16 0 0 1 B 21 0 1 E 31 1 0 A 39 1 1 40 Los códigos generados por este proceso asignan menores cantidades de bits a los caracteres que más se usan. A la secuencia de pasos que produce un resultado se le conoce como algoritmo. Se puede construir una estructura de árbol siguiendo las divisiones por mitades. 1 0 0 0 D 1 1 0 B E 1 A C A este esquema se le conoce como árbol de codificación. Cada extremo de una línea recibe el nombre de nodo, si del extremo inferior parten nuevas líneas se convierte en nodo padre de lo contrario se denomina hoja. Un nodo que no tiene padre se llama raíz. 2.2.4 Código Huffman Se presentó en 1952 por David Huffman, es muy parecido al código ShannonFano, usando los mismos símbolos del caso anterior su algoritmo es: Paso 1. Reacomodar la tabla según la frecuencia, de menor a mayor. D 8 C 16 B 21 E 31 A 39 Paso 2. Se suman los dos primeros elementos de la tabla (que son los menores) asignándole un símbolo al resultado, reordenándose la tabla. El nuevo elemento forma un nodo padre. B 21 N0(D,C) 24 E 31 41 A 39 Paso 3. Se repite el paso 2 hasta tener un solo nodo. E 31 A 39 N1(B,N0) 45 N1(B,N0) 45 N2(E,A) 70 N3(N1,N2) 115 Construyendo el árbol se obtiene: 0 N3 1 0 N11 B 0 N0 1 D C 0 N21 E A Paso 4. A los nodos hijos de lado izquierdo se les asigna cero y a los de lado derecho uno. Código D 0 1 0 C 0 1 1 B 0 0 E 1 0 A 1 1 ACTIVIDAD DE APRENDIZAJE 42 Investiga qué son las distancia de Hamming y de Levenshtein. 2.3 CRIPTOGRAFÍA Es el tratamiento que se le aplica a la información para protegerla. El mensaje original se conoce como texto plano que al procesarse genera un cifrado. Un sistema criptográfico consta de dos fases: encriptación y desencriptación. Una llave es una función que permite intercambiar información entre dos entidades que la conozcan. Se denomina sistema de encriptación clásico o simétrico si posee una sola llave, llamada privada. Por ejemplo el método de cifrado Cesar es simétrico. Si un caracter encriptado corresponde a uno en texto plano, recibe el nombre de encriptación monoalfabética, pero si representa a más de uno se denomina polialfabético. La característica de un sistema criptográfico asimétrico es que utiliza dos llaves: una pública para cifrar y una privada para descifrar. Este método fue inventado por Diffie y Hellman en 1976. En 1978 se dio a conocer el algoritmo RSA desarrollado por Rivest, Shamir y Adleman. Se basa en la dificultad para factorizar número primos “grandes” que tengan cientos de dígitos. Los pasos a seguir son: Paso 1. Elegir dos números primos “grandes” p y q para calcular n=pq. Paso 2. Obtener m=(p-1)(q-1). Paso 3. Elegir E de tal forma que el único número que divida a E y a m sea uno, escrito como mcd(E,m)=1. Bajo esta condición se dice que E y m son primos relativos. Paso 4. Encontrar D tal que DE1 mod m. E y N son la llave pública mientras que D es la privada. Paso 5. Para cifrar un símbolo M < n se calcula: C=ME mod n Para descrifrar se utiliza la fórmula: M=CD mod n. 43 Ejercicio 4. Codifica los números: 11,13 y 23; bajo RSA si p=23, q=29, E=487 y D=191. ACTIVIDAD DE APRENDIZAJE Investiga cuáles son las características de una firma digital. 2.4 ERRORES 2.4.1 Naturaleza de los errores A partir de la estructura de un sistema de comunicación se pueden encontrar múltiples fuentes de error como las siguientes: Ingreso de datos. En las primeras computadoras los datos se introducían mediante tarjetas perforadas, aún con los avances actuales no se ha podido eliminar del todo la dependencia del trabajo humano en la captura de información. Codificación. Al automatizar la conversión de datos se pueden presentar fallas en los algoritmos, programación de los mismos o uso incorrecto. Transmisión. Ya sea al momento de preparar el envío o durante su viaje por distintos medios, puede haber pérdida de calidad de la señal o contaminación que modifique los valores requiriendo de reenvíos. Decodificación. La información puede llegar tan dañada que no se puedan aplicar los métodos de corrección de errores. Despliegue de información. Puede ocurrir que las configuraciones de los equipos sean distintas, por ejemplo, en el idioma, que no permitan que los datos se vean de forma adecuada. 44 2.4.2 Agoritmos de detección 2.4.2.1 Paridad Es la verificación mediante bits adicionados a la codificación de un símbolo que indica si el número de unos es par, recibiendo el nombre de paridad par poniendo el número cero o en caso contrario se denomina impar. Por ejemplo, el código Reed-Solomon RS(255,223) transporta mensajes de 255 bytes de los cuales 223 son datos y 32 sirven de paridad, pudiendo corregir 16 errores. Éste es ampliamente usado en telecomunicaciones y dispositivos reproductores de audio. 2.4.2.2 Checksum De amplio uso en internet con distintas variaciones una de las cuales consiste en los siguientes pasos: Paso 1. Se divide el mensaje en bloques de 16 bits y se suman en grupos del mismo tamaño, la suma puede tener más de 16 bits. Paso 2. A la suma se le aplica la operación denominada complemento a uno: los unos se convierten en ceros y viceversa. Paso 3. Se envía el grupo de datos junto con el checksum, el destinatario hace la suma de todo el bloque y debe obtener 16 unos. Si su resultado es distinto entonces se produjo un error. 2.4.2.3 Redundancia cíclica Los códigos de redundancia cíclica (CRC) tienen su uso en las redes de alta velocidad y se fundamentan en los campos de Galois extendidos. Los más usados son CRC-16 y CRC-32 que usan los polinomios primitivos x16 + x15 + x2 +1 y x32 + x26 + x23 + x22 + x16 + x12 + x11 + x10 + x8 + x7 + x5 + x4 + x2 + x + 1 respectivamente. ACTIVIDAD DE APRENDIZAJE 45 Investiga para qué sirve una matriz de paridad. 46 AUTOEVALUACIÓN Elige el inciso correcto. A. Es el tamaño en bits del código Baudot. a) 3 b) 4 c) 5 d) 6 c) Gray d) Baudot c) ASCII d) Gray c) Baudot d) Gauss c) Doc d) JPG B. Tiene siete bits. a) ASCII b) EBCDIC C. Un nibble es la mitad de un. a) Bit b) Byte D. Se basa en la frecuencia estadística. a) Shannon-Fano b) Reed-Solomon E. Es un tipo de formato Lossy. a) PDF b) Txt Completa las frases. F. Un algoritmo es ________________________ ___ G. En los códigos lineales si sumo dos de sus elementos . ____ ____________________________________. H. Un código se define como _______________________________________ ___________________________________ . I. Una matriz es _________________________ . J. El factor de compresión se calcula mediante . RESPUESTAS DE LA AUTOEVALUACIÓN A. c. B. a. C. b. D. a. E. d. 47 F. Una secuencia de pasos. G. Obtengo otro elemento del código. H. Una correspondencia entre elementos de un conjunto con otro. I. Un arreglo rectangular de números. J. El inverso de la tasa de compresión. 48 UNIDAD 3 TRANSMISIÓN OBJETIVO El alumno conocerá los elementos que permiten el viaje de la información de un punto a otro. TEMARIO 3.1. ESPECTRO ELECTROMAGNÉTICO 3.2. MEDIOS 3.2.1. CABLEADOS 3.2.1.1. COAXIAL 3.2.1.2. PAR TRENZADO 3.2.1.3. FIBRA ÓPTICA 3.2.2. INALÁMBRICOS 3.2.2.1. WIFI 3.2.2.2. BLUETOOTH 3.3. MODOS 3.3.1. SIMPLEX 3.3.2. DUPLEX 3.4. TÉCNICAS 3.4.1. MODULACIÓN 3.4.1.1. DIGITAL 3.4.1.2. ANALÓGICA 3.4.2. MULTIPLEXACIÓN 3.4.3. CONMUTACIÓN 3.5. SEÑALES 3.5.1. CLASIFICACIÓN 3.5.2. MUESTREO 49 MAPA CONCEPTUAL Las Ondas Voltaje pueden ser Electromagnéticas transportando Radio Luz Información Cables a través de Medios usando Técnicas Antenas Señales 50 INTRODUCCIÓN Desde la antigüedad se han buscado técnicas de comunicación que abarquen mayor distancia para mantener en contacto a las personas, utilizando las propiedades físicas de los materiales disponibles, cada nueva tecnología presenta retos, pero esto ha hecho posible el envío de información de manera masiva, más segura y a menor costo. 51 3.1 ESPECTRO ELECTROMAGNÉTICO Una onda produce perturbaciones periódicas en el medio a través del cual se propaga, como las olas en el mar, al punto más alto se le llama cresta y al más bajo se le denomina valle. La información puede ser convertida en energía, que es en parte eléctrica y en parte magnética, con distintas formas de propagación: como voltaje a lo largo de un cable, mediante ondas radiales que viajan en el aire, o luz viajando en una fibra óptica. Todos estos fenómenos se basan en la vibración de electrones en el interior de los átomos. Una onda electromagnética está compuesta de campos eléctricos y magnéticos que se regeneran mutuamente según los principios de Maxwell y Faraday. Esos campos y la dirección de propagación de la onda son perpendiculares entre sí. ©www.terra.es Los parámetros que caracterizan a las ondas electromagnéticas son: Longitud de onda (λ). Es la distancia en metros entre una cresta y la cresta siguiente (o de valle a valle), lo que abarca un ciclo. Velocidad de propagación (c). Se propagan con la misma rapidez que la luz (3x108 m/s). Frecuencia (F). Es un indicador medido en hercios (Hz) que relaciona las dos magnitudes anteriores: 52 El rango completo de frecuencias que pueden tener las ondas electromagnéticas se conoce como espectro. Abarca desde las subsónicas hasta los rayos cósmicos y se divide en bandas que son reguladas en cada país por organismos gubernamentales, en el caso de México son la Cofetel y la SCT. © www.um.es En el caso de las radiofrecuencias existen las siguientes clasificaciones: Tipo Características Uso ELF Extremadamente bajas (30-300 Hz) Red eléctrica VF Voz (300-3000Hz) Telefonía VLF Muy baja (3-30 kHz) LF Bajas (30-300 kHz) MF Intermedias (300 kHz – 3MHz) Radio AM HF Altas (3 – 30 MHz) Banda civil Muy altas (30 – 300 MHz) TV, radio FM VHF Comunicación entre submarinos Sistemas de navegación marítima y aérea. 53 UHF Ultra alta (300 MHz – 3GHz) TV, celulares SHF Super altas (3 – 30 GHz) Microondas, satélites La banda de 27MHz con seis canales es de uso libre para aplicaciones como el radiocontrol. ACTIVIDAD DE APRENDIZAJE Investiga las propiedades de las microondas. 3.2 MEDIOS Un medio de transmisión es cualquier conductor o semiconductor, o su combinación, para llevar información de un punto a otro. Existen las siguientes configuraciones: Un conductor tubular. Dos conductores alambricos como el par trenzado o cable coaxial. Dieléctrico. 3.2.1 Cableados En los medios guiados, la velocidad y capacidad de la transmisión dependen de la distancia. A la resistencia que presenta un cable al paso de ondas electromagnéticas en función de su frecuencia se le denomina impedancia, se mide en ohmios (Ω). Si se tratara de un cable de extensión infinita recibe el nombre de impedancia característica. 3.2.1.1 Coaxial Es un sistema de conductores y aislantes dobles, dispuestos de forma interna y externa. El conductor interno es un alambre de cobre mientras que el externo está construido en forma de malla de cobre o aluminio, ésta recibe el nombre de pantalla, sirviendo como protección contra el ruido. Entre ambos conductores 54 existe un aislante de polietileno (dieléctrico) y externamente todo el sistema se cubre con una cubierta de PVC. Existen diversas medidas de diámetros del cable interno con diferentes impedancias, siendo las más comunes 50Ω y 75Ω. ©www.dis.um.es Existen dos tipos de cable coaxial: Banda base. Usado en redes de computadora para datos digitales, requiere un repetidor cada kilómetro para corregir la atenuación de la señal. Banda ancha. Transporta señales analógicas en varias frecuencias 3.2.1.2 Par trenzado Agrupa cables de cobre forrados de un grosor que varía entre 0.4 mm y 0.9 mm entrelazados espiralmente en pares, cuenta con una cubierta externa de protección fabricada de PVC. Su estructura entrelazada reduce la interferencia electromagnética (diafonía) entre las parejas adyacentes mediante diferentes longitudes de torsión, variando de 5 cm a 10 cm. Tanto para señales digitales como analógicas, el par trenzado también conocido como cable telefónico es usado ampliamente debido a su bajo costo y facilidad de manejo. Al transmitir analógicamente requiere amplificadores cada 5 km o 6 km mientras que en el caso digital necesita repetidores cada 2 km o 3 km. Es un tipo de medio susceptible a interferencias y ruido, tiene alcance, velocidad y ancho de banda menores que el coaxial o la fibra óptica. Hay dos clases: par trenzado apantallado (STP) y sin apantallar (UTP), con la finalidad de mejorar su protección. 55 © www.kmfair.org Los estándares T568A t T568B dicen cómo se deben disponer los cables para colocarles los conectores RJ45. © www.servian.es La categoría del cable establece el ancho de banda que soporta. El de categoría 5 soporta 100 Mbps (mega bits por segundo) con impedancia de 100 Ω. 3.2.1.3 Fibra óptica Está construida con fibras de vidrio o plástico, es delgada y flexible. El cable tiene forma cilíndrica, se compone de tres capas: núcleo, revestimiento y cubierta. 56 ©www.gatewayforindia.com Su ancho de banda es del orden de cientos de giga bits (Gbps) a través de decenas de kilómetros. Puede transportar entre 20,000 y 60,000 canales de voz a una distancia de 1,500 km. La fibra óptica utiliza el principio de reflexión total para frecuencias que van desde 1014 hasta 1015 Hz, cubriendo parte del espectro visible e infrarrojo. © www.techoptics.com Si un rayo de luz atraviesa dos medios con índices de refracción distintos, en dirección al que es menor, se refracta en la superficie al pasar por el segundo medio. Si se varía el ángulo de entrada, llega un punto en que se anula este fenómeno (ángulo crítico) y se refleja completamente dentro del primer medio, por lo que se denomina reflexión total interna. Las pérdidas de luz en una fibra óptica pueden ser causadas por: Curvatura. Se debe al cambio de ángulo. 57 Conexión y empalme. Existen dos tipos de empalmes: mecánico y por fusión, cuando se hacen estos puede existir desalineación de los núcleos. Fabricación. Se presentan por impurezas del núcleo propias del material o falta de calidad en los procesos de elaboración de las fibras. ©www.bug-si.com 3.2.2 Inalámbricos A la propagación de ondas electromagnéticas en espacios abiertos se le denomina propagación de radiofrecuencia que requiere una fuente que las irradie para que un receptor las capture. La irradiación y la recepción son las funciones de las antenas. En el espacio libre (vacío) no hay pérdida de energía al desplazarse la onda, pero presenta un fenómeno de dispersión, reduciendo la densidad de la potencia, a este proceso se le conoce como atenuación. La superficie terrestre no es el vacío, ya que contiene diversas partículas suspendidas en la atmosfera que absorben energía generando pérdida por absorción. Una onda terrestre es una onda electromagnética que se desplaza a través de la superficie de la Tierra. 3.2.2.1 WiFi Es un sistema de comunicación inalámbrico que necesita la conversión de datos binarios en ondas de radio que se envían y reciben a través de una 58 antena. Ha usado frecuencias de 2.4, 3.7 y 5 GHz basándose en el protocolo IEEE 802.11 siendo el de clase g con una ancho de banda de 54 Mbps el más usado actualmente. Esta versión ocupa el método de modulación OFDM (orthogonal frecuency-division multiplexing) usando diversos mecanismos para la protección de los datos tales como WEP, WPA y WPA2. El método de privacidad equivalente a cableado (WEP, por sus siglas en inglés) es de cifrado nivel dos basado en el algoritmo de llave simétrica RC4 de 64 bits o 128 bits, debido a las vulnerabilidades encontradas a esta técnica en 2001, se presentó en 2003 WPA (WiFi protected access). Se encuentra en desarrollo la clase n que tiene una capacidad máxima de 600 Mbps usando las bandas de 2.4 MHz y 5 MHz para ser compatible con versiones anteriores así como el envío de información de paralelo. ©www.proelectronica.com 3.2.2.2 Bluetooth Es una tecnología inalámbrica para comunicación de corto alcance, bajo consumo y económica. También utiliza la frecuencia de 2.4 GHz, ya que es una banda libre, tiene un alcance de 10 metros si es de la clase uno, llegando hasta 100 metros si es tres. La seguridad es administrada con base en los permisos de acceso por dispositivos en lugar de hacerlo por usuarios, a través de un identificador de 48 bits. Utiliza el protocolo IEEE 802.15.1 ideado para redes 59 personales sin interferir con las de WiFi. Posee ancho de banda de 1 Mbps, 3 Mbps o 24 Mbps dependiendo de la versión, usa modulación GFSK. ACTIVIDAD DE APRENDIZAJE Investiga cuáles son las debilidades del método WEP. 3.3 MODOS La topología lógica define las rutas que debe seguir la información. 3.3.1 Simplex En este tipo de esquema, la comunicación se produce en una sola dirección. Una estación puede ser transmisor o receptor, pero no ambos. Las radios y televisiones son ejemplos de esta categoría. 3.3.2 Duplex Bajo esta clasificación cada estación puede ser un transmisor y un receptor al mismo tiempo, tal como ocurre en los sistemas telefónicos. ACTIVIDAD DE APRENDIZAJE Investiga las características del modo semiduplex. 3.4 TÉCNICAS 3.4.1 Modulación Las transmisiones analógicas tienen como base una señal continua con frecuencia constante que se conoce como portadora. Los datos que se envían se codifican modulando esa señal. 60 Existen tres parámetros que se pueden modificar para lograrlo: amplitud, frecuencia y fase. La señal de entrada que puede ser digital o analógica, se llama moduladora o señal en banda base, mientras que la señal de salida recibe el nombre de modulada. 3.4.1.1 Digital La señal modulada es digital, aunque la portadora sea analógica, existen diversas técnicas tales como FSK, PSK y QAM. FSK. Realizada a través de cambios en la frecuencia, manteniendo constante la amplitud. PSK. Se produce desplazando la fase. QAM. La información está contenida en la amplitud y en la fase. 3.4.1.2 Analógica La señal portadora se expresa en términos senoidales: ( ) ( ) Si el parámetro que se modifica es la amplitud se indica como AM, tratándose de la frecuencia es FM. Con ambas se aumenta la capacidad de los medios de transmisión. 3.4.2 Multiplexación Con esta técnica se consiguen múltiples transmisiones usando un solo enlace, aplicando los siguientes métodos: División de frecuencia. El ancho de banda total se divide en canales paralelos de 4 kHz cada uno. Impulsos codificados. Está compuesto por los procesos: muestreo de la señal, cuantificación, compresión y codificación. División en tiempo. Asigna todo el ancho de banda disponible a cada canal durante cierto tiempo. 61 3.4.3 Conmutación Inicialmente utilizada en la comunicación de voz, actualmente es de aplicación extensiva en Internet, en donde los datos se envían por paquetes conocidos como datagramas que pueden seguir distintas rutas para llegar a su destino, donde al final se recompone el mensaje. Existe una técnica conocida como circuitos virtuales que determina una ruta fija por donde viajarán los paquetes. ACTIVIDAD DE APRENDIZAJE Investiga cuál es la estructura de un datagrama. 3.5 SEÑALES Una señal es una función que depende del tiempo y genera información. 3.5.1 Clasificación Existen diferentes técnicas de representación para las señales: Periódicas. Tiene un comportamiento repetitivo. Determinísticas o aleatorias. En las primeras su comportamiento se puede predecir mientras que las segundas presentan comportamiento irregular. Analógica o digitales. Generan valores continuos o discretos. Energéticas o potenciales. Representa voltaje o corriente. 3.5.2 Muestreo Es parte del proceso de transformación de una señal analógica a digital. Al proceso que selecciona un número de valores discretos a partir de una señal continua, se le conoce como muestreo. La tasa o frecuencia de muestreo, es la cantidad de mediciones que se hacen por unidad de tiempo. La magnitud más usada es el hercio (Hz) que representa un ciclo por segundo. El ingeniero sueco Niquist conjeturó en 1928 que la frecuencia de muestreo debe ser superior al doble de la máxima frecuencia a muestrear. 62 Ejemplo. Para digitalizar una canción en CD se utiliza una tasa de 44100 muestras por segundo (44.1 MHz), ya que la máxima frecuencia perceptible para el oído humano está cercana a 20KHz. ACTIVIDAD DE APRENDIZAJE Investiga cómo se utiliza el análisis de Fourier en el estudio de las señales. 63 AUTOEVALUACIÓN Elige el inciso correcto. A. Es la distancia de valle a valle. a) λ b) Ω c) c d) F c) 44 MHz d) 27 GHz c) c d) F B. Es una banda de uso libre. a) 44 GHz b) 27 MHz C. Mide los ciclos por segundo. a) λ b) Ω D. Es la clase WiFi que permite transmisión en paralelo. a) a b) b c) c d) n E. El teorema del muestreo fue enunciado por: a) Niquist b) Fourier c) Faraday d) Maxwell Completa las frases. F. Una onda produce ______________________ ___ . G. Cuando se alcanza el ángulo crítico ____ ____________________________________. H. El espectro electromagnético es ___________________________________ ___________________________________ . I. Un dieléctrico es ______________________ . J. La resistencia que presenta un cable al paso de ondas electromagnéticas en función de su frecuencia se le denomina . RESPUESTAS DE LA AUTOEVALUACIÓN A. a. B. b. C. d. D. d. E. a. 64 F. Perturbaciones periódicas en el medio a través del cual se propaga. G. Se produce la reflexión total interna. H. El rango completo de frecuencias que pueden tener las ondas electromagnéticas. I. Un aislante. J. Impedancia. 65 UNIDAD 4 TEORÍAS DE LA INFORMACIÓN OBJETIVO El alumno analizará los diferentes métodos para representar y manipular la información. TEMARIO 4.1. CLÁSICA 4.1.1. ENTROPÍA 4.1.2. INFORMACIÓN MUTUA 4.1.3. CAPACIDAD DEL CANAL 4.1.4. TEOREMAS DE SHANNON 4.1.4.1. CODIFICACIÓN DE LA FUENTE 4.1.4.2. CODIFICACIÓN DEL CANAL 4.1.4.3. CAPACIDAD DE INFORMACIÓN 4.1.5. TEORÍA DE LA DISTORSIÓN DE LA VELOCIDAD 4.2. CUÁNTICA 4.2.1. INTRODUCCIÓN A LA MECÁNICA CUÁNTICA 4.2.2. COMPUTADORAS 4.2.2.1. QUBITS 4.2.2.2. CIRCUITOS CUÁNTICOS 4.2.3. INFORMACIÓN 4.2.3.1. ENTROPÍA DE VON NEUMANN 4.2.3.2. TERMODINÁMICA COMPUTACIONAL 4.2.3.3. RUIDO 4.2.3.4. CRIPTOGRAFÍA 66 MAPA CONCEPTUAL La Información tiene fundamentos Matemáticos Físicos dados por Shannon mediante Landauer acerca de Canales Teoremas Codificación 67 INTRODUCCIÓN Cada día se requiere de mayores capacidades de transmisión y almacenamiento de información, al tener un entorno de alta conectividad se hace obligatorio el uso de técnicas de protección de los datos. La carrera tecnológica por crear dispositivos más pequeños y rápidos ha llegado a los límites de la materia, ante este panorama se realizan esfuerzos por encontrar nuevas soluciones que en otros tiempos se consideraban ciencia ficción. 68 4.1 CLÁSICA Cualquier área del conocimiento humano es tan sólida como las bases matemáticas sobre las que se construye. Diferentes enfoques dieron origen al estudio de la información, y quienes contribuyeron de forma más significativa a construir su cimentación fueron Shannon, Wiener, Weaver y Landauer. 4.1.1 Entropía La segunda ley de la termodinámica se puede expresar de diferentes formas dependiendo de su aplicación: El calor no fluye de forma espontanea de un cuerpo frío a uno más caliente. La energía no puede ser transformada por completo en trabajo mecánico. El cambio de entropía entre cualquier sistema y su medio ambiente es positivo y tiende a cero si el proceso es reversible. El término entropía fue acuñado por el físico alemán Rudolph Clausius y puede ser interpretado de distintas maneras: Capacidad de un sistema para hacer trabajo. Dirección del flujo del tiempo. Medida del desorden o aleatoriedad. Entre mayor sea su orden la entropía es menor. Matemáticamente, la entropía S se puede expresar como S = klnP, en donde k es la constante de Boltzman y P representa qué tan equilibrado está el sistema. En 1867 el físico Maxwell ideó un experimento que consiste de dos cajas, una con moléculas rápidas (más caliente) y otra con moléculas lentas teniendo menor energía, en ambos casos se encuentran moviéndose en todas 69 direcciones, la cajas están conectadas por una compuerta controlada por alguien. Se trata de agrupar a las moléculas rápidas de un lado y las lentas de otro, tomando como referencia las velocidades medias iniciales de cada caja, abriendo la compuerta cuando la molécula pasa por ahí en su viaje hacia su respectiva zona. Al terminar el proceso, la caja que tenía menor temperatura se volvió más fría y la otra más caliente, logrando esto sin necesidad de realizar trabajo, únicamente utilizando la observación. Cuando el físico William Thompson conoció este experimento dijo que era una especie de demonio, ya que contradice la segunda ley de la termodinámica, por tal razón recibe el nombre de “demonio de Maxwell”. ©www.historiasdelaciencia.com En 1961 el físico alemán Rolf Landauer encontró que la energía mínima necesaria para borrar un bit en una memoria es de kln2, este proceso genera calor y es irreversible, por lo tanto aumenta la entropía en el sistema. Él siempre consideró que la información es física, pues se encuentra en el ADN, neuronas, transistores y otros dispositivos. En 1984 el físico norteamericano Charles Bennett, quien al igual que Landauer trabajaba en IBM, aplicó el principio de Landauer para resolver la paradoja del “demonio de Maxwell”, debido a que el demonio requiere almacenar la información sobre la posición y velocidad de cada partícula para poder dejarlas en su zona correspondiente e ir borrando las 70 que vaya acomodando, este proceso genera calor y compensa la parte que falta para que el experimento sea consistente con la segunda ley de la termodinámica. En su libro Cybernetics Norbert Wiener plantea que la información se caracteriza por su nivel de organización en contraposición con el grado de desorden que representa la entropía, por lo tanto debe ser expresado por una medida negativa de esta. Para Shannon, la cantidad de información ( ) que se obtiene al conocer un símbolo s con probabilidad p > 0 es: ( ) ( ) Por ejemplo: entre mayor sea el número de veces que se lance un dado se verá que cada lado aparece con la misma frecuencia de tal forma que su probabilidad es , de esta forma si sabemos que salió la cara con el número 5, ( ) la información que obtenemos es de , se requiere el signo negativo porque los logaritmos también lo tienen y hacer la multiplicación se produce un resultado positivo. En general, Shannon encontró que si X es una variable aleatoria (la cara del dado) que tiene el valor x (uno a seis) con probabilidad p(x), la información contenida (medida en bits) en X a partir de una fuente de información S (el dado) es: ({ ( )}) ∑ ( ) ( ) Si como en el caso del dado perfecto, cada símbolo es equiprobable ( ) la entropía se define como: ( ) ∑ ( ) ( ) Pero si cada símbolo tiene probabilidad distinta { } entonces su entropía es: ( ) ∑ ( ) ∑ ( ) 71 Tratándose de una variable binaria, si p es la probabilidad de que X=1, la probabilidad de X=0 es 1-p (ya que la suma de las probabilidades debe ser uno), en este caso la expresión de la entropía se convierte en: ( ) ( ) ( ) 4.1.2 Información mutua La medida que expresa la cantidad de información que comparten dos variables aleatorias X e Y se conoce como información mutua ( entropía condicional ( ) expresada de la forma: ( ) ∑∑ ( ) [ ( ) y depende de la ) ] Usándola para la formulación de la información mutua queda así: ( ) ( ) ( ) Ésta posee las siguientes propiedades: ( ) ( ( ) . ( ) ( ) La expresión ( ). ( ) ( ) ) es conocida como entropía conjunta. 4.1.3 Capacidad del canal Un canal discreto sin memoria se define a partir de tres conjuntos: un alfabeto X que sirve para crear datos de entrada, un alfabeto de salida Y, y probabilidades ( ). Entonces la capacidad C de dicho canal es el máximo valor que tiene la información mutua, expresada por: { ( )} ( ) Dicha capacidad se mide en bits. 72 4.1.4 Teoremas de Shannon Los siguientes resultados fueron dados a conocer por Claude Shannon en 1948 al publicar A Mathematical Theory of Communication. ©www.nlm.nih.gov 4.1.4.1 Codificación de la fuente Para lograr una codificación binaria más eficiente de los símbolos sk de un alfabeto A que son generados por una fuente discreta sin memoria, cada uno con probabilidad pk y con longitud lk una vez codificado, se requiere que los símbolos con mayor probabilidad tengan un tamaño codificado menor que los de poca ocurrencia. La longitud media ̅ de los símbolos codificados está representada por: ̅ ∑ La medida de eficiencia del proceso de codificación se obtiene como: ̅ Si ̅ entonces , conociéndose como eficiente cuando η se acerca a uno. El primer teorema de Shannon se enfoca a la codificación de la fuente enunciándose como sigue: Dada una fuente discreta sin memoria, el esquema de codificación debe satisfacer que ̅ ( ). 73 4.1.4.2 Codificación del canal Debido a los errores que se producen en la información al ser transmitida se requieren de técnicas que minimicen los mismos a través de la codificación de la información. Mediante este resultado Shannon proporciona el resultado principal de la teoría clásica de la información, enunciado como sigue: Si A es un alfabeto en una fuente discreta sin memoria que produce símbolos cada Ts segundos que viajan a través de un canal discreto sin memoria de capacidad C que se usa cada Tc segundos. Si ( ) entonces existe un esquema de codificación que permite reducir de forma arbitraria la probabilidad de error. La relación se denomina tasa crítica. 4.1.4.3 Capacidad de información Para un canal que posee un ancho de banda B medido en hertz, en presencia de ruido blanco cuya densidad está dada por y con potencia promedio de transmisión P, su capacidad se calcula mediante: ( ) 4.1.5 Teoría de la distorsión de la velocidad Según el teorema de la codificación de la fuente, el tamaño promedio de un código debe ser cuando menos igual a la entropía de tal fuente. En las situaciones en las que no se puede aplicar ese principio, asumiendo los riegos que conlleva, se utiliza la teoría de la distorsión como en los casos: Método lossy de compresión. Transmisión de una capacidad mayor a la que soporta el canal. 74 ©www.qwickstep.com ACTIVIDAD DE APRENDIZAJE Investiga la solución al “demonio de Maxwell” propuesta por Leó Szilárd. 4.2 CUÁNTICA Debido a su enfoque como físico Landauer colaboró indirectamente en el desarrollo de la computación cuántica, se le considera como pionero en el área; sin embargo, fue un crítico de la misma, él sugirió que al final de cualquier reporte de investigación sobre computación cuántica se advirtiera del carácter especulativo de esta. 4.2.1 Introducción a la mecánica cuántica En 1801 Thomas Young propuso un experimento para comprobar la naturaleza ondulatoria de la luz mediante un dispositivo emisor que la proyectaba sobre una pantalla con dos rejillas y el uso de otra pantalla para registrar el patrón formado. Si la luz estuviera compuesta de partículas se comportaría así: 75 © www.studyphysics.ca Pero si fueran ondas se registraría el siguiente patrón: © www.studyphysics.ca El comportamiento final obtenido fue: © www.studyphysics.ca 76 En 2002 se realizó una encuesta entre los lectores de Physics World para encontrar el experimento más bello de la física, ganando el arriba presentado. En el año 1900 el físico alemán Max Plank propuso que la luz además de tener un comportamiento de onda estaba compuesta de pequeños paquetes llamados cuantos, asignando una energía E a cada uno y relacionándolo con su frecuencia f obtuvo la relación , en donde h es ahora conocida como la constante de Plank. A partir de este resultado Einstein explicó el efecto fotoeléctrico, trabajo por el cual recibió el Premio Nobel de Física en 1921. Científicos de HITACHI reprodujeron el experimento de Young en 1989 con una fuente de electrones y una pantalla de las usadas en televisiones para registrar el comportamiento. ©www.nodo50.org Cuando se trata de medir el comportamiento de cada electrón a través de cada rejilla, el patrón cambia de forma y se comporta como si sólo fueran partículas formándose dos líneas paralelas. Los fenómenos cuánticos no presentan un estado definido hasta que se intenta hacer una medición, pues su naturaleza es probabilística. El físico austriaco Erwin Schrödinger pensó en un 77 experimento en donde un gato se encontraba en una caja con un dispositivo radiactivo que activaba un gas venenoso, si se observa lo que pasa dentro de la caja se encontraría al gato vivo o muerto, pero si no se interfiere con los procesos que se llevan a cabo en el interior, el gato podría estar en una superposición de estados, es decir vivo y muerto al mismo tiempo, o medio vivo y medio muerto. ©zenweezil.com El físico alemán Werner Heisenberg propuso que a nivel cuántico una partícula no tiene posición y velocidad definidas de forma simultánea, a lo que se conoce como principio de incertidumbre, de éste se deriva el efecto túnel consistente en el escape desde el núcleo de algunas partículas denominadas alfa que no tendrían la energía necesaria para hacerlo, fenómeno que fue explicado por George Gamow. 78 ©dandan.balearweb.net Dentro del mundo cuántico es posible la acción a distancia, lo que permite que un sistema permanezca entrelazado (entanglement), una modificación en el estado de una partícula produce cambios en otra de forma instantánea a velocidades aparentemente mayores a la de la luz. Este fenómeno se conoce como no local y haría posible la teletransportación, no de las partículas mismas sino de sus propiedades las cuales se podrían copiar de una a otra creando objetos idénticos. El profesor Nicolas Gisin y su Grupo de Física Aplicada de la Universidad de Ginebra ha realizado dos experimentos significativos: en el primero lanzaron dos fotones en sentido contrario a través de una fibra óptica hasta una separación máxima de 10 km, al llegar al final del recorrido había una lamina que se podía cruzar o no, los dos fotones tomaron la misma decisión al mismo tiempo; en el segundo experimento se copió la identidad de fotón a otro con una separación entre ellos de 2 km. 79 4.2.2 Computadoras En 1930 el matemático Alan Turing ideó una computadora teórica con memoria infinita representada por una cinta que contenía una secuencia de símbolos de cierto alfabeto que eran procesados, y los resultados que generaban se guardaban al final de la cinta. De este modelo se desprende el término computabilidad, el cual asegura que un proceso hecho en una computadora también funcionaría en una maquina de Turing. Gordon Moore fundó INTEL en 1968 junto con Robert Noyce. En su versión original (1965) la ley de Moore afirma que el número de transistores por pulgada dentro de los circuitos integrados se duplicaría cada año durante dos décadas. 80 ©lifeboat.com A este ritmo de crecimiento se ha llegado al límite físico, ya que no se pueden construir los procesadores más pequeños debido a las temperaturas tan altas y a posibles fallas originadas por el efecto túnel entre los electrones. Spintronics es un campo de investigación emergente que utiliza las propiedades de giro (spin) de los electrones para lograr densidades de almacenamiento muy elevadas para ser utilizadas en discos duros y memorias. ©www.spintronics-info.com 81 4.2.2.1 Qubits El término qubit (quantum bit) fue creado por el físico teórico norteamericano Benjamin Schumacher cuando investigaba los límites físicos de los canales de información. Él formuló en 1995 el equivalente en el contexto cuántico del teorema de codificación de un canal sin ruido enunciado por Shannon. Un qubit es una partícula que puede presentar dos estados superpuestos, pero si se realiza una consulta sobre su valor tendrá solo cero o uno. ©www.cqed.org La esfera de Bloch proporciona una representación gráfica de un qubit, utiliza la notación Bra-Ket creada por Dirac en donde las kets simbolizadas por representan un estado del sistema. En el polo norte se ubica 1 y en el sur 0, las demás posiciones sobre la superficie de la esfera representan combinaciones de ambos estados. La dirección y el sentido están dados por el giro de la partícula. Con cada aumento de un qubit al sistema (registro cuántico) se incrementaría la capacidad de cálculo de forma exponencial a diferencia de los bits, que lo hacen en factor de dos. 82 Si en lugar de dos posibles estados son tres, recibe el nombre de qutrit. En caso de ser n estados se denomina qudit. 4.2.2.2 Circuitos cuánticos De la misma forma que en las computadoras clásicas, los circuitos cuánticos están integrados por compuertas. Las compuertas cuánticas se representan por medio de matrices y operaciones sobre éstas. El físico israelí David Deutsch encontró una puerta que puede ser universal (todas las otras operaciones se pueden realizar con esta). 4.2.3 Información El rol de transmisor es realizado por una fuente de partículas y la de receptor es un dispositivo de medición. Un canal representa una transformación en el estado del sistema, de igual forma su capacidad está determinada por operaciones matriciales. 4.2.3.1 Entropía de Von Neumann El equivalente cuántico de la expresión realizada por Shannon se utiliza para medir el grado de entrelazamiento de las partículas. 4.2.3.2 Termodinámica computacional Si existe un sistema que sea reversible no incrementando su entropía (contrario a lo encontrado por Landauer), entonces no disipará energía. Toffoli y Fredkin propusieron un modelo de computadora reversible basado en las interacciones que se presentan en una mesa de billar bajo condiciones perfectas (sin fricción y con choques perfectamente elásticos). Las bolas representan las entradas y el estado en que se detienen, la salida. 4.2.3.3 Ruido Una computadora cuántica podría resolver de forma simultánea todas las posibles respuestas de un problema, si se llegara a presentar algún error 83 causado por la propia inestabilidad del sistema que fuera causa de ruido, aun así el volumen de trabajo que es capaz de realizar compensaría esta falla, en lugar de poner símbolos para hacer redundante un código, se realizarían las operaciones completas varías veces. 4.2.3.4 Criptografía Schumacher propuso una forma de interpretar los estados cuánticos que permite guardar información de forma encriptada. El matemático Peter Shor encontró un algoritmo que permite descifrar en cuestión de segundos una encriptación basada en números primos como el caso de RSA, por ejemplo: para factorizar un número de 5,000 dígitos en una computadora clásica se ocuparían cinco trillones de años, mientras que en una cuántica solo dos minutos. ACTIVIDAD DE APRENDIZAJE Investiga cuáles son las características que debe cumplir una computadora cuántica según Deutsch. 84 AUTOEVALUACIÓN Elige el inciso correcto. A. Puede tener el valor de cero, uno o ambos a la vez. a) Bit b) Qubit c) Byte d) Qubyte B. Se le considera como padre de la teoría de la información. a) Shannon b) Landauer c) Wiener d) Weaver C. Si la entropía tiende a cero un proceso es: a) Irreversible b) Reversible c) Abierto d) Limitado D. La medida de la entropía de la información debe tener signo: a) negativo b) positivo c) cero d) ambos E. Según una encuesta el mejor experimento de física lo realizó: a) Plank b) Maxwell c) Einstein d) Young Completa las frases. F. La es una medida del desorden o aleatoriedad. G. La cantidad de información ( ) que se obtiene al conocer un símbolo s con probabilidad p > 0 es igual a _______________. H. Con cada aumento de un qubit a un registro cuántico se incrementa la capacidad de cálculo de forma ____________________ . I. Los fenómenos cuánticos no presentan un estado definido hasta que se intenta hacer una ______________ . J. La medida que expresa la cantidad de información que comparten dos variables aleatorias X e Y se denomina . RESPUESTAS DE LA AUTOEVALUACIÓN A. b. B. a. C. b. D. a. 85 E. d. F. Entropía. G. ( ) ( ) H. Exponencial. I. Medición. J. Información mutua. 86 BIBLIOGRAFÍA Carlson, Bruce, Sistemas de comunicación, Mc Graw-Hill, México, 2007. Chen, Goong, Mathematics of quantum computation, USA, Chapman & Hall, 2002. Cover, Thomas, Elements of information theory, USA, Wiley, 2005. Deutsch, David, La estructura de la realidad, Anagrama, España, 2002. Feynman, Richard, Conferencias sobre computación, España, Editorial Crítica, 2003. Gribbin, John, Quantum physics, USA, DK Publishing, 2002. Herrera, Enrique, Introducción a las telecomunicaciones modernas, Limusa, 2006. Nielsen, Michael, Quantum Computation and Quantum Information, Great Britain, Cambridge University Press, 2000. Penrose, Roger, La mente nueva del emperador, 2a. Ed., Fondo de Cultura Económica, México, 2002. Stallings, William, Comunicaciones y redes de computadores, España, Pearson Educación, 2004. Turton, Richard, El punto cuántico: la microelectrónica del futuro, USA, Alianza Editorial, 1999. 87 GLOSARIO Algoritmo. Secuencia de pasos para realizar con éxito una tarea. Arquitectura. Es la distribución interna de los componentes de un dispositivo electrónico, los canales de interconexión entre estos y hacia el exterior Bit. Acrónimo de binary digit, representa el valor de cero o uno. Computadora. Dispositivo electrónico que recibe datos, los procesa e informa los resultados. Entanglement. Propiedad cuántica que permite la interacción instantánea a distancia entre dos o más partículas. Semiconductor. Material que puede conducir carga eléctrica o dejar de hacerlo, dependiendo de su temperatura. Señal. Fenómeno físico que se usa para transmitir información. Qubit. Acrónimo de quantum binary digit, representa el valor de cero, uno o ambos a la vez. Sistema. Elementos que trabajan juntos para lograr un fin común. Teorema. Es una afirmación que se demuestra como verdadera. 88
© Copyright 2024