Temario Oposición Profesor FP Informática/Tema 01. Representación Y Comunicación De La Información.

  1. Introducción editar

    El término Informática proviene del francés Informatique, acuñado por el ingeniero Philippe Dreyfus en 1962, acrónimo de las palabras information y automatique. La informática es el conjunto de conocimientos científicos y de técnicas que hacen posible el tratamiento automático de la información por medio de dispositivos electrónicos y sistemas computacionales.
    Así pues, aunque la informática tiene su primer origen en los primitivos intentos de lograr una máquina capaz de realizar automáticamente operaciones de cálculo, y aunque en términos relativos es una disciplina reciente (naciente en los años 60 del pasado siglo XX), su realidad actual es muy distinta, siendo ahora herramienta imprescindible en todos los campos de las ciencias, en cualquier actividad comercial, y siendo característica de la sociedad moderna en los países industrializados, donde se ha acuñado el concepto de sociedad de la información, que ha permitido el mayor grado de intercomunicación global entre todos los puntos del planeta.

  2. ¿A qué nos referimos cuando hablamos de Información? editar

    1. Definición de Información editar

      Denominamos información a todo conocimiento comprensible y aprehensible para el ser humano, susceptible de ser expresado en un lenguaje apropiado y de ser transferido a otros seres humanos, para ser compartido y utilizado.

    2. La Información a lo largo de la Historia editar

      1. En la Edad Media el almacenamiento, acceso y uso limitado de la información se realizaba en las bibliotecas de los monasterios.
      2. En la Edad Moderna, con el nacimiento de la imprenta (Gutenberg), los libros empiezan a fabricarse en serie y surgen los primeros periódicos.
      3. En el siglo XX, irrumpe la radio, la televisión e Internet
      4. Hoy en día, ya en el siglo XXI, se habla de la sociedad de la información, que ha permitido el mayor desarrollo social y tecnológico en la historia de la humanidad, y se basa en la globalización del acceso a los enormes volúmenes de información existentes en medios cada vez más complejos, con capacidades ascendentes de almacenamiento y en soportes cada vez más reducidos.
    3. Tipos de Información editar

      1. Magnitudes editar

        Son valores numéricos (cuantitativos) expresados en una determinada unidad de medida.

      2. Textos editar

        Son agrupaciones de símbolos especiales que son directamente interpretables en el modo humano de expresarse por escrito. Cada símbolo es distinguible y legible por separado, y se compone de símbolos elementales formantes de la comunicación verbal llamados caracteres (letras y números, también denominados caracteres alfanuméricos). Se llama alfabeto al conjunto básico de símbolos diferentes que componen todas las palabras formantes del texto.

      3. Imágenes editar

        Es el tipo de información que emula a la capacidad humana de la visión. Son percibidas directamente como representación del mundo real y su valor de información será mayor cuanto más lo sea su tamaño, y la precisión con que la imagen representa el objeto real. Esto se expresa con los conceptos de fiabilidad ó similitud entre la imagen y el objeto representado, y de resolución ó precisión empleada para la representación.

      4. Señales editar

        Son el tipo de información ligada a la variación de características físicas, que se va percibiendo de forma continuada con el paso del tiempo, como puede ser una sucesión más ó menos continua de sonidos y/ó imágenes. Valores como frecuencia de llegada de las señales, calidad de las mismas, precisión de las mismas son criterios para considerar el valor informativo de las señales.

    4. La Información Digital editar

      Como hemos dicho, los dos conceptos claves de la información son:

      1. poder ser expresada de la manera más adecuada, para que pueda ser mantenida y aumentada sistemáticamente
      2. y poder ser comunicada de forma eficaz a cualquier lugar donde se necesita, y en el momento en que se precisa

      Para conseguir estos dos objetivos, se han inventado y desarrollado sucesivamente nuevas herramientas para el tratamiento y la transmisión de la información.
      Estas herramientas se basan en la información digital, que utiliza sólo dos símbolos, el 0 y el 1, para cualquier tipo de dato.
      Cualquier tipo de información es susceptible de ser convertida en digital, para su tratamiento y transmisión, y ser recuperada posteriormente con sus características originales.

  3. Representación Digital de la Información editar

    El fenómeno que convierte cualquier tipo de información en digital se denomina codificación y al proceso inverso decodificación. Para tener claro los conceptos de codificación y decodificación de la información, hay que conocer primeramente como funciona el sistema de numeración binario. Por ello entraremos brevemente en el estudio de sistemas de numeración.

    1. Sistemas de numeración editar

      Sistema para expresar gráficamente los números. Existen sistemas posicionales donde el valor depende de la posición (por ejemplo la numeración decimal) y otros no posicionales (sistema romano) donde el valor es independiente de la posición.

      1. Cambios de sistemas de numeración editar

        1. Paso de base b a decimal editar

          Para p cifras enteras, q cifras decimales y siendo b la base:
          N(b = np-1·bp-1 + np-2·bp-2 + ... + n1·b1 + n0·b0 + n1·b-1 + n2·b-2 + ... + nq·b-q = N(10

          Ejemplo: 1234(5 = 194(10 (p = 4, q = 0, b = 5)
          N(5 = n4-1·54-1 + n4-2·54-2 + ... + n1·51 + n0·b0 + n1·5-1 + n2·5-2 + ... + n0·5-0 = N(10
          N(5 = n3·53 + n2·52 + n1·51 + n0·50 + n1·5-1 + n2·5-2 + ... + n0·5-0 = N(10
          N(5 = 1·53 + 2·52 + 3·51 + 4·50 = N(10
          N(5 = 1·125 + 2·25 + 3·5 + 4·1 = N(10
          N(5 = 125 + 50 + 15 + 4 = N(10
          1234(5 = 194(10

        2. Paso de un decimal a cualquier base editar

          Se divide el número decimal por la base hasta que se obtenga un cociente menor que la base, luego se recoge el último cociente y los restos obtenidos en orden inverso.

          Ejemplo: 1234(10 = 14414(5
          1234 / 5 = 246 | resto 4
          246 / 5 = 49 | resto 1
          49 / 5 = 9 | resto 4
          9 / 5 = 1 | resto 4
          1 / 5 = 0 | resto 1
          1234(10 = 14414(5

        3. Paso de base b a base c editar

          Se pasará de base b a base decimal y luego de base decimal a base c.

      2. El sistema binario editar

        El sistema de numeración de base dos, se conoce como sistema binario y utiliza los símbolos 0 y 1 que correxponden con un BIT (del inglés Binary digiIT, Dígito Binario).

        1. Nombre de los grupos de bits, dependiendo de su longitud editar
          1. 4 bits nibble
          2. 8 bits byte / octeto
          3. 16 bits media palabra
          4. 32 bits palabra
          5. 64 bits doble palabra
        2. Múltiplos del BYTE editar
          1. 10241 bytes KiloByte KB
          2. 10242 bytes MegaByte MB (1024 KB)
          3. 10243 bytes GigaByte GB (1024 MB)
          4. 10244 bytes TeraByte TB (1024 GB)
          5. 10245 bytes PetaByte PB (1024 TB)
        3. Operaciones en binario editar
          1. Operaciones aritméticas editar
            1. Suma
              0 + 0 = 0
              0 + 1 = 1
              1 + 0 = 1
              1 + 1 = 0 (y acarreo 1)
            2. Resta
              0 - 0 = 0
              0 - 1 = 1 (y acarreo 1)
              1 - 0 = 1
              1 - 1 = 0
            3. Multiplicación
              0 · 0 = 0
              0 · 1 = 0
              1 · 0 = 0
              1 · 1 = 1
          2. Operaciones lógicas editar
            1. AND
              0 and 0 = 0
              0 and 1 = 0
              1 and 0 = 0
              1 and 1 = 1
            2. OR
              0 or 0 = 0
              0 or 1 = 1
              1 or 0 = 1
              1 or 1 = 1
            3. XOR
              0 xor 0 = 0
              0 xor 1 = 1
              1 xor 0 = 1
              1 xor 1 = 0
      3. El sistema octal editar

        El sistema octal utiliza 8 símbolos {0,1,2,3,4,5,6,7}, la ventaja de este sistema es la facilidad para pasar un número octal a binario y viceversa.

        000(2 = 0(8
        001(2 = 1(8
        010(2 = 2(8
        011(2 = 3(8
        100(2 = 4(8
        101(2 = 5(8
        110(2 = 6(8
        111(2 = 7(8

        Ejemplo: 1234(8 = 1 2 3 4 = 001 010 011 100 = 001010011100(2

      4. El sistema hexadecimal editar

        El sistema hexadecimal utiliza 16 símbolos {0,1,2,3,4,5,6,7,8,9,A,B,C,D,E,F} y ofrece la misma ventaja que el sistema octal.

        0000(2 = 0(16
        0001(2 = 1(16
        0010(2 = 2(16
        0011(2 = 3(16
        0100(2 = 4(16
        0101(2 = 5(16
        0110(2 = 6(16
        0111(2 = 7(16
        1000(2 = 8(16
        1001(2 = 9(16
        1010(2 = A(16
        1011(2 = B(16
        1100(2 = C(16
        1101(2 = D(16
        1110(2 = E(16
        1111(2 = F(16

        Ejemplo: 1234(8 = 1 2 3 4 = 0001 0010 0011 0100 = 0001001000110100(2

    2. Conversión de la información al formato digital editar

      1. Cuantificación editar

        La información en general es denominada analógica por su naturaleza continua, presentándose en un rango continuo de valores. El primer paso para convertirla al formato digital, es asumir un valor fijo para todos los valores analógicos comprendidos dentro de un determinado intervalo, y este valor suele ser el valor central del intervalo considerado.
        Otras variedades de este proceso pueden ser establecidas, eligiendo intervalos de distinta longitud, más pequeños en aquellos rangos de valores donde es necesaria mayor precisión.

      2. Margen de error editar

        El error cometido como diferencia entre el valor efectivo, y el valor central asumido para su representación está limitado por la mitad de la anchura del intervalo. Es por lo tanto predecible y controlable.
        El nivel de estos errores se puede reducir adecuadamente, y en todo caso, por debajo del umbral de percepción del ser humano. La información es objeto del conocimiento humano, y es percibida con unos órganos sensoriales, que son dispositivos analógicos, basados en reacciones físicas y químicas. Su precisión no es infinita, lo que hace que no sean distinguibles pequeñas diferencias entre señales analógicas antes y después del procesamiento digital.

      3. Codificación editar

        Una vez reducido el rango continuo a un conjunto de valores discretos, el siguiente proceso es codificar numéricamente estos valores, obteniendo el conjunto de los valores numéricos digitales, en el código binario adecuado.

    3. Extracción de la información desde el formato digital editar

      Los valores binarios obtenidos contienen toda la información que contenía su forma analógica, de manera que se puede volver a recuperar ésta, si se han observado las debidas precauciones en los procesos anteriormente explicados.

    4. Datos binarios editar

      1. Magnitudes editar

        1. Enteros editar

          Cuantificados en binario natural, más codificación del signo.

        2. Decimales editar

          Codificando por separado los números a ambos lados de la coma, y su posición.

        3. Reales editar

          Codificando la expresión denominada coma flotante, con una base decimal, y un exponente entero.

      2. Símbolos y Textos editar

        Los textos son la expresión del lenguaje humano escrito, y se representan codificando por separado cada uno de los símbolos (caracteres) que lo componen, que pueden ser letras del un alfabeto, cifras numerales sin correspondencia con su valor numérico, signos de puntuación, caracteres especiales, y caracteres de control, y alineación.
        La codificación se realiza mediante los códigos ASCII (American Standar Code for Information Interchange) y EBCDIC (Extended Binary Code Decimal Interchange Code), especialmente el primero.
        Cualquier información digital binaria se puede agrupar en bloques, e interpretarse directamente como un conjunto de caracteres, en este caso se dice que se tratan como ficheros de texto.

      3. Imágenes editar

        Se codifican como datos el tamaño de la imagen, la posición de cada elemento de la imagen en las dos dimensiones, generalmente llamado píxel, y los valores que definen su color. Hay multitud de formatos que guardan dicha información (JPG, GIF, PNG, DWG, TIFF, ecétera), algunos de ellos permiten la compresión de la información a base de perder cierta cálidad de la imagen. Los algoritmos de compresión tienen en cuenta ciertos parámetros de la visión humana para que esta perdida de informacón no sea visible a simple vista.

      4. Audio editar

        Hay multitud de formatos que guardan dicha información (CDA, WMA, ACC, MP3, OGG, ecétera), algunos de ellos permiten la compresión de la información a base de perder cierta cálidad del sonido. Los algoritmos de compresión tienen en cuenta ciertos parámetros del oido humano para que esta perdida de informacón no sea perceptible.

      5. Video editar

        Se consideran imágenes en movimiento, lo que equivale a una sucesión de imágenes a un ritmo suficiente para crear la percepción de movimiento. Se codifican de la misma forma, es decir, como imágenes sucesivas codificadas. Se les sueleñadir sonido, lo que se consigue incluyendo la información sonora intercalada dentro del formato del video. Los formatos de video más conocidos son VCD, SVCD, AVI, DVD. La compresión de la información está implícita.

    5. Redundancia en las codificaciones binarias editar

      1. Cálculo de la redundancia R editar

        R = 1 - (In / It) , siendo:

        • In = cantidad de información utilizada por el código
        • It = cantidad de información total


        Por ejemplo el código BCD usa 4 bits para representa 10 símbolos distintos:

        R = 1 - (10 / 24) = 1 - (10 / 16) = 1 - 0.625 = 0.375 = 37.5 % de redundancia.

        Un código poco redundante es el que aprovecha al máximo todas las posibilidades que tiene para representar la información.

      2. Detección de errores editar

        A veces es interesante que un código sea redundante para facilitar la detección de errores e incluso repararlo.
        El bit de paridad (par o impar) es un ejemplo de redundancia para detectar errores. El inconveniente que tiene es que no es capaz de detectar un cambio en más de un bit. Hay otros tipos de métodos capaces de corregir dichos fallos, uno de estos fallos consiste en añadir un bit de paridad vertical por cada grupo de bytes, cada uno de los cuales lleva su propio bit de paridad. Si el error fuera múltiple este se podrá detectar pero no corregir.
        Existen métodos más efectivos como son los códigos de Hamming que son capaces de detectar errores múltiples y corregir errores sencillos utilizando en proporción menos bits de paridad. Estos códigos consisten en añadir varios bits de paridad colocados en las posiciones que son potencia de 2, de forma que cada uno proteja a varios bits del dato. Estos códigos son cada vez más utilizados en las memorias.
        Si lo que se pretende es la detección de errores en las comunicaciones serie, existen códigos especiales ya que los errores producidos suelen afectar a varios bits consecutivos. Estos códigos llamados polinomiales o de redundancia cíclica (CRC) consisten en añadir a cada bloque un residuo (módulo) con respecto a un valor concreto representado por un polinomio.
        Los códigos de Huffman presentan la particularidad de emplear códigos de longitud variable, de manera que el número de bits utilizados para codificar un carácter va a depender de la frecuencia de utilización.
        Otro código corrector, el 2 entre 3, consiste en enviar la información por triplicado de forma que si dos de los tres bytes enviados son iguales podemos desechar el tercero.

  4. Comunicación de la información editar

    1. Características generáles de la comunicación editar

      La comunicación es el intercambio de información entre dos o más entes. El emisor es el ente que envía dicha información a través de un canal de comunicación y el receptor es el ente que la recibe.

    2. Sistemas de transmisión editar

      1. Según sistema de transmisión:
        1. Por línea: cable de par trenzado, coaxial, fibra óptica.
        2. Por radio: ondas terrestres y ondas vía satélite.
      2. Según la direccionalidad de la transmisión:
        1. Simplex: la comunicación se efectúa en un solo sentido.
        2. Semi-duplex: existe comunicación en ambos sentidos pero no simultáneamente.
        3. Full-duplex: hay comunicación en ambos sentidos de manera simultánea.
      3. Según la forma de sincronización:
        1. Asíncrona: la emisión y la recepción de la información no se realizan al unísono.
        2. Síncrona: la emisión y la recepción de la información se realizan práticamente a la vez.
      4. Según la naturaleza de la señal:
        1. Analógicos: señal que toma valores continuos en el tiempo.
        2. Digitales: señal que toma un número finito de valores (si sólo toma 2 se llaman señal digital binaria).
    3. Problemas de transmisión editar

      Los problemas asociados a la transmisión están relacionados con la naturaleza del medio físico de transporte, que no tiene una respuesta digital, sino que tiene propiedades físicas intensivas y extensivas (inercia, resistencia al cambio, elasticidad, interacción de desgaste con las señales que lo atraviesan?) cuyo efecto en conjunto es la degradación de la señal transmitida, que llega alterada al punto de recepción.
      Los problemas asociados a la transmisión de señales, se pueden enunciar como:

      1. Distorsión editar

        Consiste, en alteraciones de la forma de la señal, debidos las características del medio.

      2. Atenuación ó pérdidas de potencia editar

        Consiste en la pérdida del nivel de la señal, debido al desgaste.

      3. Alteración de la temporización editar

        Causados por retardos, y tiempos de transmisión diferentes para distintas formas de señales.

      4. Ruido editar

        Son las señales no deseadas que acompañan a la señal enviada, y que aparecen en recepción debido a su paso por el medio, y que en ocasiones pueden ocultarla, y, en todo caso dificultar su detección.

    4. Codificación de línea analógica editar

      Aunque estamos hablando de información de tipo digital, los medios de transmisión utilizados tienen una característica, y un comportamiento analógico, determinado por el transporte físico de las señales que contienen la información, por lo tanto, las señales que se transmiten por el medio son analógicas, aunque transportando secuencias de símbolos digitales.
      Es necesario pues, una nueva adaptación al medio analógico que se denomina codificación de línea, que consiste en generar, para cada símbolo binario, una señal que se adapte a las características del medio y que conserve el carácter digital, que va a ser transmitida alternativamente por la línea.
      Esta adaptación analógica permite además evitar las principales causas de pérdida de calidad que afectan a las señales analógicas, especialmente la distorsión ó variación de forma de la señal.

    5. Cifrado digital editar

      Puesto que la transmisión utiliza un medio común físico, la información contenida en las señales puede ser accesible por otros, para ser leída, ó para ser alterada, ambas situaciones son altamente peligrosas.
      Las características de la información digital permite un proceso de codificación-decodificación completamente digital, que haga ininteligible la información ante cualquier acceso a ella de sistemas que no conozcan el tipo de codificación ó sus parámetros.

    6. Compresión digital editar

      Con el fin de reducir el tamaño de los datos a transmitir, y aumentar asñi la velocidad de transmisión, existen algoritmos de compresión de la información.

      1. Comprensión lossless (sin perdida) editar

        1. Compresores estadísticos editar
          1. Compresores del tipo Huffman o Shannon-Fano
            Longitud codificación inversamente proporcional a la probabilidad de aparición del mensaje.
          2. Compresores aritméticos
            Compresor también basado en la probabilidad de aparición de un mensaje, pero en este caso para la representación se utiliza un número en coma flotante.
          3. Compresores predictivos
            Pretenden predecir el siguiente mensaje a transmitir partiendo del conocimiento que se tiene de los mensajes enviados hasta el momento.
        2. Compresores basados en diccionario o sustitucionales editar
          1. Compresión RLE
            Compresor de los menos eficaces pero de los más sencillos. Se basa en la sustitución de caracteres repetidos por un carácter más el número de repeticiones.
          2. Compresores Lempel-Ziv (LZ)
            1. LZ78
              Esta técnica consiste en la elaboración dinámica de un diccionario donde se irán almacenando las cadenas aparecidas hasta el momento y a las que se le irán asignando identificadores, de forma que si aparece una cadena que ya está en eldiccionario, se enviará su identificador. Uno de los problemas de este método es el delimitar el crecimiento infinito del diccionario.
            2. LZ77
              Este método guarda un registro de caracteres enviados, pero no construyen un diccionario propiamente dicho, sino que mantienen una "historia (o ventana)" de la entrada y un "buffer de adelantamiento". Este método de comprensión es utilizado en la mayoría de los compresores actuales, por ejemplo, hacen uso de él PK-ZIP, RAR, ARJ, etc.
        3. Compresores híbridos o de dos fases editar

          Los compresores actuales utilizan ambos métodos (estadísticos y sustitucionales) para comprimir de manera más óptima.

      2. Comprensión lossy (con perdida) editar

        Se utiliza sobre todo para la codificación de archivos multimedia, dónde no es tan importante que la información recibida sea exacta y sí es muy importante la capacidad de comprensión.

        1. Codificación diferencial editar

          La secuencia de valores son representados como la diferencia con respecto a un valor previo.

        2. Compresión basada en transformadas editar

          Se basa en la representación de la imagen muestreada en términos de contenido de frecuencias de la imagen.

        3. Cuantización de vectores editar

          División de la imagen en rectángulos de tamaño fijo y se basa en la utilización de un libro de códigos que se crea previamente, a raiz de las estadísticas de un grupo de imágenes de prueba que son similares en contenido a la imagen que se va a comprimir.

        4. Compresión fractal editar

          Similar a la anterior técnica, pero en vez de seleccionar el bloque del libro más parecido, se puede aplicar una transformación geométrica a los bloques del libro de códigos para hacerlos coincidir mejor con el bloque de pixels que está siendo evaluando.

        5. Técnicas de compresión de imágenes en movimiento (interframe) editar

          La comprensión se basa por la eliminación de redundancia que se produce por las mínimas diferencias entre imágenes sucesivas.

    7. Velocidades de transmisión digital editar

      La transmisión digital se caracteriza por un parámetro, que es la velocidad binaria, expresada en baudios (símbolos por segundo), ó en la medida homogénea de bits / Kbits / Mbits por segundo.

    8. Elementos de un sistema de comunicación digital editar

      +-------------------+                           +-------------------+
      |       EMISOR      |                           |      RECEPTOR     |
      +---------+---------+                           +---------^---------+
                |                                              /|\
                |                                               |
               \|/                                              |
      +---------v---------+                           +---------+---------+
      |   CODIFICACIÓN    |                           |   DECODIFICACIÓN  |
      | DE LA INFORMACIÓN |                           | DE LA INFORMACIÓN |
      +---------+---------+                           +---------^---------+
                |                                              /|\
                |                                               |
               \|/                                              |
      +---------v---------+                           +---------+---------+
      |   ENCRIPTACIÓN    |                           |  DESENCRIPTACIÓN  |
      |   DE LOS DATOS    |                           |    DE LOS DATOS   |
      +---------+---------+                           +---------^---------+
                |                                              /|\
                |                                               |
               \|/                                              |
      +---------v---------+                           +---------+---------+
      |    COMPRESIÓN     |                           |   DESCOMPRESIÓN   |
      |   DE LOS DATOS    |                           |   DE LOS DATOS    |
      +---------+---------+                           +---------^---------+
                |                                              /|\
                |                                               |
               \|/                                              |
      +---------v---------+                           +---------+---------+
      |    REDUNDANCIA    |                           | COMPROBAR ERRORES |
      |  CONTRA ERRORES   |                           |    TRANSMISIÓN    |
      +---------+---------+                           +---------^---------+
                |                                              /|\
                |                                               |
               \|/                                              |
      +---------v---------+   +-------------------+   +---------+---------+
      |   CODIFICACIÓN    |__\|    TRANSMISIÓN    |__\|  DECODIFICACIÓN   |
      |    DEL CANAL      |  /|    POR EL CANAL   |  /|    DEL CANAL      |
      +-------------------+   +-------------------+   +-------------------+
      
      1. El emisor es el encargado de generar la información a transmitir. Dependiendo del tipo de información, esta se codifica en binario, mediante la transformación más adecuada. Luego, si es necesario, los datos se encriptan para que no puedan ser interceptados. Opcionalmente, se comprimen para reducir su tamaño y así aumentar la velocidad de transmisión. Antes de enviar los datos, se realiza una nueva codificación orientada a que el receptor pueda detectar y corregir errores. Para enviar los datos, estos se transforman en una señal analógica que pueda ser enviada a traves del canal de comunicación.
      2. En la recepción se realiza el proceso inversio. Se decodifica la señal analógica, se detectan y corrigen posibles fallos. Si procede se descomprimen los datos y se desencriptan. Y por último se descodifica la información de forma que esta pueda ser comprendida por el receptor.
  5. Referencias editar

    Temario Oposición Profesor FP Informática - Tema 01 - Representación y comunicación de la información