Sistema de Codificación:
Es el lenguaje
que entiende el ordenador y es llamado lenguaje de máquina, en el que la
información está codificada en forma de ceros y unos , este lenguajes se conoce
como lenguaje de bajo nivel, ya que es el único que puede entender el hardware
del ordenador y es las señal que se transmiten por los cables de señales eléctricas
, cuando tienen un cierto voltaje , se entienden como unos; cuando el voltaje
es inferior, se codifican como ceros; y si al ordenador no le llega ningún voltaje,
entenderá que ha ocurrido un error , o que la línea o comunicación están
cortadas por lo contrario, el llamado lenguaje de alto nivel es el que utilizan
los programas o el sistema operativo como la interfaz con las personas este
mecanismo se llama codificación de la información las clases de codificación de
datos más utilizadas son el sistema decimal (base 10), el octal (base 8), el
binario (base 2), el hexadecimal (base 16), el ASCII y el EBCDIC Un sistema de
codificación es un método para representar caracteres de texto en un archivo o
flujo de información. Permite convertir un carácter en un símbolo de otro
sistema de representación, aplicando una serie de normas o reglas de
codificación. El ejemplo mas gráfico suele ser el del código Morse.
Evolución de los sistemas de codificación:
En la difusión de
la informática 256 caracteres son insuficientes para contener los grafos de
todas las lenguas en específico (el cirílico, el hebreo, el árabe, el griego, y
el japonés). Se hizo evidente la necesidad de un sistema con más de 256
posibilidades, lo que condujo a establecer un sistemas de codificación en los
que cada carácter ocupaba más de un octeto (al menos ciertos caracteres), razón
por la cual a estos sistemas se les conoce genéricamente como de caracteres
anchos. La solución adoptada comprende dos grandes grupos: el sistema multibyte
(§2 ) y el sistema de caracteres anchos (§3 ), de los que existen distintas
variedades. Generalmente el primero se utiliza en representación externa
(almacenamiento) y comunicaciones, mientras que el segundo es preferido para
representaciones internas.
Sistema multibyte:
Si se trata de
representar juegos de más de 256 caracteres en almacenamientos externos o en
sistemas de transmisión, en los que es importante la economía de espacio y/o
ancho de banda, la solución ha consistido en utilizar sistemas de codificación
multibyte. Conocidos abreviadamente como MBCS ("Multibyte Carácter
Set").Como su nombre indica utilizan más de un octeto, pero la anchura de
los distintos caracteres es variable según la necesidad del momento. Los
caracteres multibyte son una amalgama de caracteres de uno y dos bytes de ancho
que puede considerarse un súper conjunto del ASCII de 8 bits. Por supuesto una
convención de este tipo exige una serie de reglas que permitan el análisis
("Parsing") de una cadena de bytes para identificar cada carácter.
Versiones de codificación:
Estas versiones
son utilizadas principalmente en comunicaciones, como correo electrónico,
porque utiliza solo 7 bits para cada carácter. Usa secuencias de escape para
conmutar entre los modos de uno y dos bytes por carácter y para conmutar entre
los diversos juegos de caracteres.
Shift-JIS Introducido por Microsoft y utilizado en el
sistema MS-DOS, es el sistema que soporta menos caracteres. Cada byte debe ser
analizado para ver si es un carácter o es el primero de un dúo.
EUC (Extended
Unix Code). Este sistema es utilizado como método de codificación interna en la
mayoría de plataformas Unix. Acepta caracteres de más de dos bytes, por lo que
es mucho más extensible que el Shift-JIS, y no está limitado a la codificación
del idioma japonés. Resulta muy adecuado para el manejo de múltiples juegos de
caracteres.
UTF-8 (Unicode
transformation format). En este sistema, cada carácter se representa mediante
una secuencia de 1 a 4 bytes, aunque en realidad, el número de bits destinados
a representar el carácter se limita a un máximo de 21 (el resto son metadatos "información sobre información"). El objeto de estos metadatos es que la
secuencia pueda ser interpretada a partir de cualquier posición
Tipos de codificación:
Cuando hablamos
de codificación de caracteres en informática nos referimos al método que
permite convertir un carácter de un lenguaje natural (alfabeto o silabario) en
un símbolo de otro sistema de representación, por ejemplo en un número, una
secuencia de pulsos eléctricos en un sistema electrónico, octetos aplicando
normas o reglas de codificación. Esto con la finalidad de facilitar el
almacenamiento de texto en computadoras o para facilitar la transmisión de
texto a través de la redes de telecomunicaciones, un ejemplo muy simple puede
ser el del código morse
Existen dos tipos básicos de sistemas de códigos: los
códigos significativos y los no significativos.
Significativos:
Como su nombre lo
indica son aquellos que implican un significado, es decir, que reflejan en un
mayor o menor grado las características del objeto, partida o individuo a los
cuales se la asigna.
No significativos:
A veces llamados
secuenciales o consecutivos) de ninguna manera describen el objeto a que se
aplican sino que son simples etiquetas por medio de las cuales se distinguen de
otros el objeto.
Sistema numérico:
El sistema numérico en base 36 se llama sistema alfanumérico y utiliza
para su representación los símbolos 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D,
E, F, G, H, I, J, K, L, M, N, O, P, Q, R, S, T, U, V, W, X, Y, Z (las letras
pueden ser mayúsculas o minúsculas). Recibe este nombre dado que los símbolos
que utiliza para su representación concuerdan con la definición computacional
tradicional de carácter alfanumérico; hay que tener presente que los caracteres
alfabéticos utilizados corresponden al alfabeto latino de la lengua
inglesa.
Sistema alfabético:
Sigue una
secuencia lógica, basada en el arreglo de los nombres de acuerdo con el
alfabeto, muy similar al usado en los diccionarios. Este sistema se
ajusta a casi todos los negocios. Codifica los materiales con un conjunto de letra, cada uno de la cuales
identifica determinadas características y especificación. Este limita el número
de artículo y es de difícil memorizar, razón por las cuales es un sistema poco
utilizado.
Sistema alfanumérico:
Se refiere
a un sistema de caracteres en el que la información se halla codificada combinando
letras y números, aunque también pueden existir otros caracteres tales como los
signos de puntuación, que se hallan en una computadora. También se utiliza este
adjetivo para referirse a los teclados que contienen estos signos. Este sistema
contiene los números del 0 al 9 y las letras del alfabeto dividiéndose en dos
posibilidades de acuerdo a los caracteres alfanuméricos posicionales. De base
2, que es el más simple y que tiene 32 caracteres: 26 mayúsculas del alfabeto
inglés más seis dígitos arábigos del 2 al 7.De base 64 que es un caso sensible
y que está formado por 64 caracteres, con una composición variable.
Todas las
variantes de esta base usan caracteres A-Z, a-z y 0-9, los que se hallan en
este orden para aquellos caracteres que están entre el 1 al 62. En cambio
los símbolos desarrollados para los caracteres 63 y 64 son totalmente
diferentes. En los teclados los 26 caracteres alfabéticos, corresponden al
alfabeto latino moderno y se utilizan en inglés, francés, italiano y español,
(donde en el teclado se agrega la ñ) y en otros lugares a veces con acentos
especiales o sin ellos. Con respecto a la “ñ” ésta no se encuentra dentro del
sistema no porque no se la reconozca, sino porque el sistema fue desarrollado
en un país que no habla el español. De haber sido reconocida la base sería de
37.En cuanto al componente numérico, son 10 números correspondientes al sistema
arábigo moderno que se usan en todo el mundo: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9.
C.I : 27055723 PNF INFORMATICA NOCTURNO 136
No hay comentarios.:
Publicar un comentario