/ / La codificación es ... Sistemas firmados: información de codificación

La codificación es ... Sistemas firmados: información de codificación

La información de codificación es increíblemente ampliaárea de conocimiento. Por supuesto, está directamente relacionado con el desarrollo de la tecnología digital. En muchas instituciones educativas modernas, el tema más popular es la codificación de la información. Hoy estudiaremos las principales interpretaciones de este fenómeno en relación con diversos aspectos del trabajo de las computadoras. Intentaremos responder a la pregunta: "¿La codificación es un proceso, método, herramienta o todos estos fenómenos simultáneamente?"

Ceros y Unidades

Prácticamente cualquier tipo de datos quese muestran en la pantalla de la computadora, de una forma u otra son un código binario que consta de ceros y unos. Este es el método más simple de "bajo nivel" de encriptación de información, que permite a una PC procesar datos. El código binario es universal: todas las computadoras lo comprenden sin excepción (de hecho, para este fin fue creado, para estandarizar el uso de la información en forma digital).

La codificación es el proceso

La unidad base que utiliza binariamentela codificación es un poco (de la frase "dígito binario" - "dígito doble"). Es 0 o 1. Como regla, los bits no se usan individualmente, sino que se combinan en secuencias de 8 dígitos: bytes. En cada uno de ellos, por lo tanto, se pueden contener hasta 256 combinaciones de ceros y unos (2 en el octavo grado). Para la grabación de cantidades significativas de información se utilizan, por lo general bytes no aislados, y el valor más grande - con prefijos "kilo", "mega" "giga", "Tera", etc., cada uno de los cuales es 1.000 veces mayor que la anterior .. .

Codificación de texto

El tipo más común de datos digitales estexto. ¿Cómo está codificado? Este es un proceso bastante fácil de explicar. Una letra, un signo de puntuación, un número o un símbolo se pueden codificar con uno o más bytes, es decir, la computadora los ve como una secuencia única de ceros y unos, y luego, de acuerdo con el algoritmo de reconocimiento incrustado, se muestra en la pantalla. Hay dos estándares mundiales principales para el "cifrado" del texto de la computadora: ASCII y UNICODE.

En el sistema ASCII, cada carácter está codificado soloun byte. Es decir, a través de este estándar, puede "encriptar" hasta 256 caracteres, que es más que suficiente para mostrar los símbolos de la mayoría de los alfabetos del mundo. Por supuesto, todos los sistemas de cartas nacionales existentes no encajarán en este recurso. Por lo tanto, cada alfabeto tiene su propio "subsistema" de encriptación. Existe una codificación de información con la ayuda de sistemas de signos, adaptados a muestras nacionales de escritura. Sin embargo, cada uno de estos sistemas, a su vez, es una parte integral de la norma global ASCII adoptada a nivel internacional.

Codificación gráfica

Dentro del sistema ASCII, este mismo recurso de 256signos se divide en dos partes. Los primeros 128 son símbolos asignados al alfabeto inglés (letras de la a a la z), así como números, signos de puntuación básicos y algunos otros símbolos. Los segundos 128 bytes están reservados, a su vez, bajo los sistemas de cartas nacionales. Este es el "subsistema" para alfabetos no ingleses: ruso, hindi, árabe, japonés, chino y muchos otros.

Cada uno de ellos se presenta por separadotablas de codificación. Es decir, puede suceder (y, como regla general, sucede) de modo que la misma secuencia de bits será responsable de diferentes letras y símbolos en dos tablas "nacionales" separadas. Además, en relación con los detalles del desarrollo de la esfera de TI en diferentes países, incluso ellos difieren. Por ejemplo, dos sistemas de codificación son los más comunes para el idioma ruso: Windows-1251 y KOI-8. El primero apareció más tarde (así como el sistema operativo, en consonancia con él), pero ahora muchos especialistas en TI lo utilizan como una cuestión de prioridad. Por lo tanto, la computadora, para que se pueda garantizar que lea el texto en ruso, debería ser capaz de reconocer correctamente ambas tablas. Pero, como regla, no hay problemas con esto (si la PC tiene un sistema operativo moderno).

Métodos de codificación de textos todo el tiempoestán siendo mejorados Además del sistema ASCII de "solo byte", capaz de operar solo 256 valores para símbolos, también hay un sistema UNICODE de "dos bytes". Es fácil calcular que permite la codificación de texto en una cantidad igual a 2 para el grado 16o, es decir, de 65 mil. 536. En él, a su vez, tiene los recursos para codificar simultáneamente prácticamente todos los alfabetos nacionales existentes en el mundo. Usar UNICODE no es menos común que usar el estándar ASCII "clásico".

Codificación de gráficos

Arriba determinamos cómo "encriptar"textos y cómo se usan los bytes. ¿Qué hay de las fotos y fotos digitales? También es bastante simple. De forma similar a cómo sucede con el texto, la función principal en la codificación de gráficos por computadora se juega con todos los mismos bytes.

El proceso de construir imágenes digitales en generalsimilar a los mecanismos en los que funciona la televisión. En la pantalla del televisor, si mira de cerca, la imagen consiste en un conjunto de puntos individuales, que juntos forman las figuras reconocidas a cierta distancia por el ojo. La matriz de televisión (o proyector CRT) recibe del transmisor las coordenadas horizontal y vertical de cada uno de los puntos y organiza gradualmente la imagen. El principio de codificación de gráficos por computadora funciona exactamente igual. El "cifrado" de imágenes de bytes se basa en especificar cada uno de los puntos de pantalla de las coordenadas correspondientes (así como el color de cada uno de ellos). Esto es, en términos simples. Por supuesto, la codificación gráfica es un proceso mucho más complicado que el mismo texto.

Sistemas de codificación de información

El método de especificar las coordenadas correspondientes ylos parámetros de color se llaman "ráster". Del mismo modo, muchos formatos de archivo se llaman gráficos de computadora. Las coordenadas de cada uno de los puntos de la imagen, así como su color, están escritos en uno o más bytes. ¿Qué determina su número? Principalmente sobre cuántos tonos de color deben ser "encriptados". Un byte, como sabes, es 256 valores. Si tenemos suficientes sombras para construir una imagen, administraremos este recurso. En particular, 256 tonos de gris pueden aparecer a nuestra disposición. Y esto será suficiente para codificar casi cualquier imagen en blanco y negro. A su vez, para las imágenes en color de este recurso, claramente no será suficiente: el ojo humano, como se sabe, es capaz de distinguir hasta varias decenas de millones de colores. Por lo tanto, necesita un "stock" de 256 valores, pero cientos de miles de veces más. Por qué codificar puntos, no se trata de un byte, sino de varios: los estándares actuales pueden ser 16 (puede "encriptar" 65.536 colores) o 24 (16 millones 777 mil 216 tonos).

A diferencia de los estándares de texto, la diversidadque es comparable con el número de idiomas del mundo, con los gráficos de las cosas son algo más simples. Los formatos de archivo más comunes (como JPEG, PNG, BMP, GIF, etc.) se reconocen igualmente en la mayoría de las computadoras en general.

No hay nada difícil para entender.Los principios de codificación de la información gráfica. El grado 9 de cualquier escuela secundaria de Rusia, como regla general, incluye un curso de informática, donde estas tecnologías se divulgan con bastante detalle en un lenguaje muy simple y comprensible. También hay programas de capacitación especializada para adultos, organizados por universidades, escuelas y también colegios.

Codificándolo

Por lo tanto, el hombre ruso moderno tienedónde aprender sobre códigos que tienen importancia práctica en términos de gráficos de computadora. Y si desea familiarizarse con los conocimientos básicos, puede obtener materiales de capacitación accesibles. Estos incluyen, por ejemplo, el capítulo "Codificación de información gráfica (Grado 9, libro de texto" Informática y TIC "bajo la autoría de Ugrinovich N. D.).

Codificación de audio

La computadora se usa regularmente paraescuchando música y otros archivos de audio. Al igual que con el texto y los gráficos, cualquier sonido en una PC es todos los mismos bytes. Ellos, a su vez, son "descifrados" por la tarjeta de audio y otros chips y se convierten en sonido audible. El principio aquí es casi el mismo que en el caso de los registros de gramófono. En ellos, como saben, cada sonido corresponde a un surco microscópico sobre plástico, que el lector reconoce y luego expresa. En una computadora, todo parece. Solo se juega el papel de los surcos bytes, en la naturaleza de los cuales, así como en el caso de texto e imágenes, es la codificación binaria.

Sistemas de codificacion

Si en el caso de imágenes de ordenador.un solo elemento es un punto, luego cuando se graba un sonido, este es el llamado "conteo". En ella, como regla general, se escriben dos bytes, generando hasta 65 mil 536 micro oscilaciones de sonido. Sin embargo, a diferencia de cómo sucede esto al generar imágenes, para mejorar la calidad del sonido, no agrega bytes adicionales (obviamente son más que suficientes), sino que aumenta el número de "muestras". Aunque en algunos sistemas de audio, se utiliza un número más pequeño y más grande. Cuando se realiza la codificación de audio, la unidad de medida estándar de la "densidad de flujo" es de un segundo. Es decir, las micro oscilaciones, encriptadas con 8 mil muestras por segundo, obviamente serán de menor calidad que la secuencia de sonidos codificados con 44 mil "muestras".

La estandarización internacional de los archivos de audio, así como en el caso de los gráficos, está bien desarrollada. Hay varios formatos de medios de audio típicos: MP3, WAV, WMA, que se utilizan en todo el mundo.

Codificacion de video

Una especie de "esquema híbrido" en el queEl cifrado de audio se combina con la codificación de imágenes, utilizada en videos de computadora. Por lo general, las películas y los clips constan de dos tipos de datos: el sonido y la secuencia de video que lo acompaña. Cómo el primer componente está "encriptado", hemos descrito anteriormente. El segundo es un poco más complicado. Los principios aquí son diferentes a la codificación gráfica discutida anteriormente. Pero gracias a la universalidad del "concepto" de bytes, la esencia de los mecanismos es bastante comprensible y lógica.

Recuerda cómo está dispuesta la película. No es nada más que una secuencia de cuadros individuales (hay, como regla, 24). Los videos de computadora se hacen exactamente de la misma manera. Cada cuadro es una imagen. Sobre cómo se construye utilizando bytes, hemos definido anteriormente. A su vez, en el video, hay una cierta área de código que le permite vincular marcos individuales entre sí. Una especie de sustituto del cine digital. Una unidad de medida separada del flujo de video (similar a los puntos para imágenes y muestras para sonido, como en el formato de "película" de películas y clips), se considera un cuadro. El último en un segundo, de acuerdo con los estándares aceptados, puede ser 25 o 50.

Al igual que con el audio, hayEstándares internacionales comunes de archivos de video - MP4, 3GP, AVI. Los productores de películas y comerciales están tratando de producir muestras de medios que sean compatibles con tantas computadoras como sea posible. Estos formatos de archivo se encuentran entre los más populares, se abren en casi cualquier PC moderna.

Compresión de datos

El almacenamiento de datos informáticos se realiza envarios medios de almacenamiento: discos, unidades de memoria flash, etc. Como hemos dicho anteriormente, los bytes tienden a crecer en exceso con los prefijos "mega", "giga", "tera", etc. En algunos casos, el tamaño de los archivos codificados es que colocarlos con los recursos disponibles en el disco es imposible. Luego se utilizan varios métodos de compresión de datos. Son, de hecho, también de codificación. Esta es otra posible interpretación del término.

Hay dos mecanismos básicos para la compresión de datos. Para el primero de estos, la secuencia de bits se escribe en forma "empaquetada". Es decir, la computadora no puede leer el contenido de los archivos (reproducirlo como texto, imagen o video) si no realiza el procedimiento de "desempaquetado". Un programa que realiza la compresión de datos de esta manera se denomina archivador. El principio de su funcionamiento es bastante simple. El archivado de datos como uno de los métodos más populares por los cuales se puede codificar la información, se estudia sin fallas en la ciencia de la escuela.

Como recordamos, el proceso de "cifrado" de archivos enLos bytes están estandarizados. Tome la norma ASCII. Para, digamos, cifrar la palabra "hola", necesitamos 6 bytes, según el número de letras. Esa es la cantidad de espacio que el archivo con este texto ocupa en el disco. ¿Qué sucede si escribimos la palabra "hola" 100 veces seguidas? Nada especial: para esto necesitamos 600 bytes, respectivamente, la misma cantidad de espacio en disco. Sin embargo, podemos usar un archivador, que creará un archivo en el cual, por medio de un número mucho menor de bytes, un comando que se parece a esto: "hola multiplicar por 100" será "encriptado" Habiendo contado el número de letras en este mensaje, llegamos a la conclusión de que solo necesitamos 19 bytes para escribir dicho archivo. Y tanto espacio en disco. Al "desempacar" el archivo comprimido, se produce el "descifrado", y el texto toma su forma original con "100 saludos". Por lo tanto, al utilizar un programa especial que utiliza un mecanismo de codificación especial, podemos ahorrar una cantidad sustancial de espacio en disco.

El proceso descrito anteriormente es bastante universal: sea cual sea el sistema de signos que se utilice, la codificación de la información con fines de compresión siempre es posible a través del archivo de datos.

¿Cuál es el segundo mecanismo? Hasta cierto punto, es similar a lo que se utiliza en los archivadores. Pero su diferencia fundamental es que el archivo comprimido puede mostrarse en una computadora sin el procedimiento de "desempaquetado". ¿Cómo funciona este mecanismo?

Como recordamos, la palabra original "hola".Toma 6 bytes. Sin embargo, podemos ir al truco y escribirlo así: "prvt". Fuera de 4 bytes. Todo lo que queda por hacer es "enseñar" a la computadora a agregar las letras que eliminamos en el proceso de mostrar el archivo. Hay que decir que en la práctica el proceso “educativo” está organizado y no es necesario. Los mecanismos básicos para reconocer los caracteres faltantes se encuentran en la mayoría de los programas de PC modernos. Es decir, la parte principal de los archivos con los que tratamos todos los días se "encripta" de alguna manera con este algoritmo.

Por supuesto, hay sistemas "híbridos".codificar información para permitir la compresión de datos mientras se utilizan simultáneamente los dos enfoques anteriores. Y es probable que sean aún más efectivos en términos de ahorrar espacio en disco que cada uno por separado.

Por supuesto, usando la palabra "hola", nos propusimosSólo los principios básicos de los mecanismos de compresión de datos. En realidad, son mucho más complicados. Varios sistemas de codificación de información pueden ofrecer mecanismos de compresión de archivos increíblemente complejos. Sin embargo, vemos cómo es posible ahorrar espacio en disco, casi sin degradar la calidad de la información en una PC. Particularmente significativo es el papel de la compresión de datos cuando se usan imágenes, audio y video; estos tipos de datos requieren más recursos de disco.

¿Qué más son los "códigos"?

Como dijimos al principio, la codificación -Este es un fenómeno complejo. Habiendo tratado con los principios básicos de la codificación de datos digitales basados ​​en bytes, podemos afectar a otra área. Se relaciona con el uso de códigos de computadora en valores ligeramente diferentes. Aquí, por "código" entenderemos no una secuencia de ceros y unos, sino una colección de diferentes letras y símbolos (que, como ya sabemos, ya están hechos de 0 y 1), teniendo un significado práctico para la vida de una persona moderna.

Código de software

En el corazón del trabajo de cualquier programa de computadora -codigo Está escrito en un lenguaje comprendido por la computadora. PC, descifrando el código, ejecuta ciertos comandos. Una característica distintiva de un programa de computadora de otro tipo de datos digitales es que el código contenido en él puede "descifrar" a sí mismo (el usuario solo necesita iniciar este proceso).

Codificación de la información gráfica grado 9.

Otra característica de los programas es relativa.Flexibilidad del código utilizado. Es decir, una persona puede asignar a la computadora las mismas tareas, utilizando un conjunto suficientemente amplio de "frases" y, si es necesario, en un idioma diferente.

Código de marcado de documento

Otra área de aplicación prácticamente significativa.código de la letra - la creación y el formato de documentos. Como regla general, una simple visualización de los caracteres en la pantalla no es suficiente desde el punto de vista de la importancia práctica de usar una PC. En la mayoría de los casos, el texto debe construirse utilizando una fuente de un color y tamaño determinados, acompañados de elementos adicionales (como, por ejemplo, tablas). Todos estos parámetros se configuran, como es el caso de los programas, en lenguajes especiales que son comprensibles para una computadora. La PC, reconociendo los "comandos", muestra los documentos exactamente como lo desea el usuario. Además, los textos se pueden formatear de la misma manera, al igual que con los programas, con diferentes conjuntos de "frases" e incluso en diferentes idiomas.

Sin embargo, existe una diferencia fundamental entre los códigos.Para documentos y programas informáticos. Consiste en el hecho de que los primeros no son capaces de desencriptar. Para abrir archivos con textos con formato, siempre se requieren programas de terceros.

Cifrado de datos

Otra interpretación del término "código"Para las computadoras, este es el cifrado de datos. Anteriormente, usamos esta palabra como sinónimo del término "codificación", y esto es permisible. En este caso, por cifrado, entenderemos otro tipo de fenómeno. A saber, la codificación de datos digitales para prohibir el acceso a ellos por otras personas. Protección de archivos informáticos - la actividad más importante en la esfera de TI. Esta es en realidad una disciplina científica separada, también incluye la informática escolar. La codificación de archivos para evitar el acceso no autorizado es una tarea cuya importancia se atribuye a los ciudadanos de países modernos que ya están en la infancia.

codificación binaria

¿Cómo son los mecanismos por los cuales¿Los datos están encriptados? En principio, es tan simple y comprensible como todos los anteriores que consideramos. La codificación es un proceso que puede explicarse fácilmente en términos de los principios básicos de la lógica.

Supongamos que necesitamos enviar un mensaje"Ivanov va a Petrov" para que nadie pueda leerlo. Confiamos en encriptar el mensaje en la computadora y ver el resultado: "10-3-1-15-16-3-10-5-7-20-11-17-6-20-20-3-21". Este código es, por supuesto, muy simple: cada dígito corresponde al número ordinal de letras de nuestra frase en el alfabeto. "Y" está en el décimo lugar, "B" - en 3, "A" - en 1, etc. Pero los sistemas modernos de codificación por computadora pueden encriptar datos para que sea increíblemente difícil elegir la clave para ellos.

</ p>>
Leer más: