Entropía

* Equivale a la pérdida de energía o incluso desorden. Siendo considerada por Einstein como la primera ley de todas la ciencias.

* En termodinámica, la entropía es la magnitud física que mide la parte de la energía que no puede utilizarse para producir trabajo.

* El concepto de “entropía” es equivalente al de “desorden”. Así, cuando decimos que aumentó la entropía en un sistema, significa que creció el desorden en ese sistema. Y a la inversa: si en un sistema disminuyó la entropía, significa que disminuyó su desorden.

*En el área de comunicación, se tiene la entropía de la información que es definida como una forma de medir la cantidad de información. O sea, un mensaje tiene cierta cantidad de información cuánto mayor sea su grado de incertidumbre.

SHANNON Y LA TEORIA DE LA INFORMACIÓN

La teoría de la información fue desarrollada por Claude E. Shannon para encontrar los límites fundamentales en la compresión y almacenamiento confiable y comunicación de datos. ... se ha ampliado para encontrar aplicaciones en muchas otras áreas, incluyendo inferencia estadística, procesamiento del lenguaje natural, criptografía, otras redes diferentes a las redes de comunicación –como en neurobiología, la evolución y función de códigos moleculares, selección de modelos en ecología, física térmica, computación cuántica, detección de plagiarismo y otras formas de análisis de datos.

Una medida clave de la información en la teoría es conocida como entropía, la que usualmente se expresa como el número promedio de bits necesarios para almacenamiento o comunicación. ...La entropía cuantifica la incertidumbre involucrada al encontrar una variable al azar. Por ejemplo, tirar una moneda (con dos resultados probables) tendrá menos entropía que tirar un dado (con 6 resultados igualmente probables).
Aplicaciones de tópicos fundamentales de la teoría de la información incluyen compresión sin pérdida de datos (ej. Archivos ZIP), compresión de datos con pérdida (ej. MP3s), y codificación de canal (ej. Para líneas DSL). El campo está en la intersección de las matemáticas, estadística, ciencias de la computación, física, neurobiología,  e ingeniería eléctrica. Su impacto ha sido crucial para el éxito de las misiones del Voyager al espacio profundo, la invención del disco compacto, la factibilidad de los teléfonos móviles, el desarrollo de Internet, el estudio de la lingüística y la percepción humana, la comprensión de los agujeros negros, y otros campos numerosos. Subcampos importantes de la teoría de la información son la codificación de fuentes, codificación de canales, teoría de la complejidad algorítmica, teoría de la información algorítmica, y medida de la información.”

Según el trabajo original de Shannon:
Un sistema de comunicación consiste de cinco partes esenciales:
1.     Una Fuente de Información que produce un mensaje o secuencia de mensajes a ser comunicados a una terminal receptora. Los mensajes pueden ser de varios tipos:

  • Una secuencia de letras
  • Una función única de tiempo ft como en radio o telefonía
  • Ua función de tiempo y otras variables como en la televisión en blanco y negro- aquí el mensaje puede considerarse como una función fxy de dos coordenadas espaciales y tiempo, la intensidad de la luz en el punto xy y tiempo t en la placa del tubo.
  • 2o más funciones de tiempo, es decir ft, gt, ht- este es el caso de la transmisión de sonido tridimensional o si el sistema intenta servir varios canales individuales en múltiple.
  • varias funciones de varias variables—en la televisión de color consiste de tres funciones fxyt, gxyt, hxyt definidas en un continuo tridimensional—también podemos pensar de esas tres funciones como componentes de un campo de vectores definido en la región—similarmente, varias fuentes de televisión blanco y negro producirían mensajes consistentes de un número de funciones de tres variables.
  • También pueden ocurrir varias combinaciones, por ejemplo en televisión con un canal de audio asociado.
2.     Un Transmisor que opera sobre el mensaje de alguna manera para producir una señal adecuada para la transmisión a través del canal. En telefonía esta operación consiste meramente de cambiar la presión de sonido en una corriente eléctrica proporcional. En telegrafía tenemos una operación de codificación que produce una secuencia de puntos, rayas y espacios en el canal correspondiente al mensaje. En un sistema PCM múltiple las diferentes funciones de lenguaje deben ser muestreadas, comprimidas, cuantificadas y codificadas, y finalmente interfoliadas adecuadamente para construir la señal. Sistemas Vocoder, televisión y frecuencia modulada son otros ejemplos de operaciones complejas aplicadas al mensaje para obtener la señal.

3.
    
El canal es meramente el medio utilizado para transmitir la señal del transmisor al receptor. Puede ser un par de alambres, un cable coaxial, una banda de frecuencia de radio, un haz de luz, etc.


4.
    
El Receptor ordinariamente realiza la operación inversa de la hecha por el Transmisor, reconstruyendo el mensaje de la Señal.


5.
    
El Destino es la persona (o cosa) para quien se propone el mensaje.
 
Podemos clasificar los sistemas de comunicación en tres categorías principales: Discretos, Continuos y Mixtos. Entendemos como Sistema Discreto uno en el que ambos Mensaje y Señal son una secuencia de símbolos discretos. Típico caso es el telégrafo donde el mensaje es una secuencia de letras y la señal una secuencias de puntos, rayas y espacios. Un Sistema Continuo es uno en el que el Mensaje y la Señal son tratados como funciones continuas, ej. Radio o televisión. Un Sistema Mixto es uno en el que aparecen ambas, variables Continuas y Discretas, ej. Transmisión de palabras PCM.
Category: 2 comentarios

SHANNON Y LOS ZIP

Toda persona que utilice Internet se habrá dado cuenta de lo importante que es comprimir la información antes de enviarla a través de la red. Un nuevo modo de comprimir datos puede originar a veces a una auténtica revolución en mundo del internet, como ha ocurrido con el formato mp3. Pero la compresión de datos es un problema matemático cuya importancia va más allá de estas aplicaciones y afecta a cuestiones tan fundamentales como la definición objetiva del azar.
Claude Shannon demostró que el tamaño mínimo al que se puede reducir un fichero de datos es igual a su incertidumbre o entropía y mostró la manera de calcular esta entropía en casos sencillos. Uno de los algoritmos de compresión más conocido es el llamado de Lempel-Ziv (LZ), desarrollado por Abraham Lempel and Jacob Ziv. El programa compress del sistema operativo UNIX y todos los programas que generan ficheros .arj, .zip o .gif en Windows utilizan variantes suyas. Lo que hace el algoritmo es aprovechar de forma bastante simple las repeticiones de ciertas “frases” que aparecen en una cadena de bit, es decir, en una cadena de dígitos 0 o 1. Para ello se fragmenta primero la cadena de modo que no aparezca la misma frase dos veces. Esto se consigue colocando comas de forma sucesiva: se coloca una coma después del primer dígito; la siguiente se coloca de modo que el fragmento entre comas resultante sea el más corto posible que no haya aparecido antes.

Por ejemplo, en la cadena de bit:
1011100010101010100

La fragmentación proporcionará:
1,0,11,10,00,101,01,010,100

Se puede observar que cada fragmento es siempre la concatenación de un fragmento aparecido con anterioridad y de un bit 0 o 1. Los llamaremos fragmento prefijo y bit adicional, respectivamente.
Por ejemplo, el tercer fragmento, 11, es el primero seguido de un 1; el sexto fragmento, 101, es el cuarto seguido de un 1; y así sucesivamente. Podemos ahora numerar los fragmentos y sustituir cada uno de ellos por el número del prefijo y por el bit adicional. El 0 indicará por convención la falta de prefijo o “prefijo vacío”. En nuestro ejemplo:
(0,1),(0,0),(1,1),(1,0),(2,0),(4,1),(2,1),(7,0),(4,0) Finalmente se representan en binario los números que indican el prefijo para obtener una nueva cadena de bit. Veamos cómo se realiza este paso en nuestro ejemplo. Como hemos utilizado siete prefijos, se necesitan tres bit para representar cada uno de ellos:
(000,1),(000,0),(001,1),(001,0),(010,0),(100,1),(010,1), (111,0),(100,0)
Ahora se pueden quitar los paréntesis y las comas
y obtener así la cadena de bit comprimida:
000100000011001001001001010111101000.
Category: 0 comentarios

Entropia del pensamiento

y si todo fuera como en la lógica
y si las cosas se solucionaran siempre con un simple "case"
o si de pronto la monotonía fuera tan fácil como un "for"
que tal si las grandes decisiones de nuestras vidas fueran cosa de un "while"
o si el "else" solucionara aquellos problemas que siempre queremos postergar
que seria de la entropía del pensamiento, si la cosas fueran tan simples
como en la lógica... que seria del hombre si sus más grandes incógnitas
convergieran siempre ente un "if" o un "else"
Si nuestra personalidad estubiera siempre enmarcada en un "<html>"
si una sonrisa fuera un simple "objeto" o si nuestros pensamientos
fueran cosa de una "namespace"... que tal si todo estuviera programado
si todo fuera tan fácil como en la lógica
que seria del pensamiento sin la entropía???
Marcela Castrillón
Category: 0 comentarios