lunes, 15 de marzo de 2010

ENSAYO TEORIA DE LA INFORMACION

Ésta teoría la desarrolló en 1948, por un ingeniero electrónico estadounidense llamado Claude E. Shannon, en su artículo, A Mathematical Theory of Communication (Teoría matemática de la comunicación).





Para hablar de la teoría de la información, antes debemos hablar sobre los sistemas.
En el mundo existen y conocemos varios tipos de sistemas, como los sistemas ecológicos, por ejemplo una cadena alimenticia, o los sistemas matemáticos, como un sistema de tres ecuaciones, etc.


Pero la pregunta es ¿QUÉ ES UN SISTEMA? , bien pues según la definición a la que llegamos con el Profesor Mendieta:


*Un sistema (S) es un conjunto de partes que interactúan entre sí.


Otras definiciones:


*Un sistema es un conjunto de funciones, virtualmente referenciada sobre ejes, bien sean estos reales o abstractos.


*Conjunto de elementos dinámicamente relacionados formando una actividad para alcanzar un objetivo operando sobre datos, energía y/o materia para proveer información.


Además un sistema está caracterizado o mejor dicho compuesto por un conjunto de variables.


Retomando el ejemplo de la cadena alimenticia, las partes que interactúan y que a la vez son los conjuntos que forman a ese sistema, serían los productores, consumidores primarios, secundarios, terciarios y los descomponedores, todos ellos interactúan entre sí y forman un sistema, es importante destacar que si un conjunto de éste sistema es alterado o exterminado, los resultados podrían ser fatales.


Citando otro ejemplo, un gas está determinado por su presión (p), temperatura (t) y volumen (v), entonces éstas son las variables que componen al sistema.


Un sistema (S) está caracterizado por n variables (X1, X2, X3,…,Xn), llamadas variables de estado.


El conjunto de todas las n-adas ordenadas (puntos Rn), (X1, X2, X3,…,Xn)= (Xi)n se le llama Espacio Fase.


Un sistema está compuesto por dos conjuntos llamados: conjunto de entrada o estímulos (E) y conjunto de salida o respuestas (X).


CONJUNTO DE ENTRADA


Es el proceso mediante el cual el Sistema de Información toma los datos que requiere para procesar la información.


CONJUNTO DE SALIDA


La salida es la capacidad de un Sistema de Información para sacar la información procesada o bien datos de entrada al exterior. Es importante aclarar que la salida de un Sistema de Información puede constituir la entrada a otro Sistema de Información o módulo.


En el primer conjunto (de entrada) se introducen los datos que llegan al sistema donde son procesados y arrojan un resultado (conjunto de salida), que depende de los datos iniciales.

Los sistemas pueden dividirse en dos grandes partes, los sistemas dinámicos y los sistemas estáticos.


LOS SISTEMAS DINÁMICOS


Es un sistema complejo que presenta un cambio o evolución de su estado en un tiempo.


Un sistema dinámico es sensible a las condiciones iniciales, es decir presenta el efecto mariposa, éste es un efecto, que como explicó el Profesor Mendieta, consiste en que si al sistema se le provoca un mínimo cambio en las condiciones iniciales, los resultados pueden alterarse enormemente, es decir que el sistema es sensible a las condiciones iniciales.


LOS ESTÁTICOS


Corresponde a todo sistema cuyos valores permanecen constantes en el tiempo.


Los Sistemas estaticos no cambian en el tiempo, como ejemplo de ellos están las montañas.


Existen varias clasificaciones de sistemas, entre otros están:


Sistemas físicos o concretos: compuestos por equipos, maquinaria, objetos.


Sistemas abstractos: compuestos por conceptos, planes, hipótesis e ideas.


En cuanto a su naturaleza, pueden cerrados o abiertos:


Sistemas cerrados: no presentan intercambio con el medio ambiente que los rodea, son herméticos a cualquier influencia ambiental. No reciben ningún recurso externo y nada producen que sea enviado hacia fuera


Sistemas abiertos: presentan intercambio con el ambiente, a través de entradas y salidas.

Intercambian energía y materia con el ambiente. Son adaptativos para sobrevivir.


Ahora es importante tener una idea de la definición de información, entonces llega la pregunta:


¿QUÉ ES INFORMACIÓN?


*Información es todo aquello que modifica el estado de un sistema.


Otras definiciones:


*La información es una medida matemática que se calcula según su probabilidad de aparición.


*El concepto de información se refiere no a los mensajes individuales (su significado) sino a la situación en su totalidad.


*Es un conjunto organizado de datos procesados, que constituyen un mensaje sobre un determinado ente o fenómeno.


La información es tratada como magnitud física y para caracterizar la información de una secuencia de símbolos se utiliza la entropía.


Pero ¿QUÉ ES LA ENTROPÍA?


En esta teoría, Shannon trata a la información como una magnitud física caracterizando a ésta como una secuencia de símbolos. Esta secuencia de símbolos la podemos percibir como la cantidad de información que lleva una señal, es decir, entropía.


*Entropía es la tendencia de los sistemas a desgastarse, a desintegrarse, para el relajamiento de los estándares y un aumento de la aleatoriedad.


Otras definiciones:


*la cantidad media de información que contiene una variable aleatoria o, en particular, una fuente transmisión binaria.


*Magnitud que mide la información contenida en un flujo de datos, es decir, lo que nos aporta sobre un dato o hecho concreto.


La entropía o información media de la variable aleatoria discreta, , se determina como la información media del conjunto de valores discretos que puede adoptar.

Además de su definición y estudio, Shannon demostró analíticamente que la entropía es el límite máximo al que se puede comprimir una fuente sin ninguna pérdida de información.


Por ejemplo, si nos dicen que las calles están mojadas, sabiendo que acaba de llover, nos aporta poca información, porque es común y lógico que después de una lluvia las calles se encuentre mojadas. Pero si nos dicen que las calles están mojadas y sabemos que no ha llovido, aporta mucha información, pues sabemos que la causa no fue lluvia.


La medida de la entropía puede aplicarse a información de cualquier naturaleza, y nos permite codificarla adecuadamente, indicándonos los elementos de código necesarios para transmitirla, eliminando toda redundancia.


Y viene a nuestra mente otra pregunta importante:


¿QUÉ ES LA REDUNDANCIA?


*Por redundancia se entiende lo que se dice en exceso con respecto a lo estrictamente necesario para la comprensión del receptor.


A mayor redundancia menor información trasmitida. La redundancia también cumple la función de compensar los posibles ruidos del canal.


La entropía nos indica el límite teórico para la compresión de datos.


Su cálculo se realiza mediante la siguiente fórmula:


H = p1*log(1/p1)+p2*log(1/p2)+ pm*log(1/pm)


donde H es la entropía, las p son las probabilidades de que aparezcan los diferentes códigos y m el número total de códigos. Si nos referimos a un sistema, las p se refieren a las probabilidades de que se encuentre en un determinado estado y m el número total de posibles estados


Se utiliza habitualmente el logaritmo en base 2, y entonces la entropía se mide en bits.


La entropía aumenta con el tiempo. Si aumenta la información, disminuye la entropía, pues la información es la base de la configuración y del orden.


La información se transmite de un sistema a otro por medio de canales.



¿QUÉ ES UN CANAL?


*Un canal de comunicación es el medio de transmisión por el que viajan las señales portadoras de la información que pretenden intercambiar emisor y receptor.


Otras definiciones:


*El canal es simplemente el medio utilizado para la trasmisión de la señal o mensaje desde el trasmisor hasta el receptor.


*Es el medio físico que permite el paso de la señal.


Es precisamente en el canal donde puede incidir la fuente del ruido. Es posible que en el proceso de trasmisión de la señal, a través del canal, se agreguen a éste una serie de elementos que no son proporcionados intencionalmente por la fuente de la información. Todos estos cambios en la señal pueden ser llamados ruido.


En el proceso de transmisión de la información mediante canales puede existir distorsión de la información, representándolo matemáticamente:


Sean E1,E2, E3,…,En las distorsiones de los datos que al procesarlos en el sistema 1(S1):


X1 --X1+E1-- f(X1)=d1(X1+ E1)-- S2 f(d1)-- (X1+ E1)= (d2 (X1+ E1))

¿CÓMO ES EL PROCESO DE LA COMUNICACIÓN?


Se inicia en la fuente del mensaje que es lo que genera. La fuente de información selecciona a partir de un conjunto de posibles mensajes el menaje deseado. Después el trasmisor opera sobre el mensaje y lo codifica transformándolo en señal capaz de ser trasmitida a través de un canal.


El canal es el medio físico que permite el paso de la señal. Es precisamente en el canal donde puede incidir la fuente del ruido. Es posible que en el proceso de trasmisión de la señal, a través del canal, se agreguen a éste una serie de elementos que no son proporcionados intencionalmente por la fuente de la información.


Cuando la señal es recibida por el receptor se lleva a cabo la operación inversa a la del trasmisor reconstruyendo el mensaje a partir de la señal. El receptor recibe la señal y la transforma. El destino es el punto final del proceso de comunicación.


Un concepto implícito del modelo es el código. Un código es un conjunto de elementos pertinentes sobre los cuales se forma un sistema mediante la combinación de éstos según reglas prefijadas.



Es decir, un sistema de signos destinado a transmitir la información entre emisor y receptor.



¿QUÉ ES LA INFORMÁTICA?

*La Informática es la ciencia aplicada que abarca el estudio y aplicación del tratamiento automático de la información, utilizando dispositivos electrónicos y sistemas computacionales.


*Es conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores.

*El procesamiento automático de la información.

Esta disciplina Tiene su base en las matemáticas y la física, y a su vez se ha usado para potenciar estas ciencias y se aplica a numerosas y variadas áreas del conocimiento o la actividad humana, como por ejemplo: gestión de negocios, almacenamiento y consulta de información, monitorización y control de procesos, industria, robótica, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado, aplicaciones/herramientas multimedia, medicina, biología, física, química, meteorología, ingeniería, arte, etc. Una de la aplicaciones más importantes de la informática es proveer información en forma oportuna y veraz, lo cual, por ejemplo, puede tanto facilitar la toma de decisiones a nivel gerencial (en una empresa) como permitir el control de procesos críticos.

La informática estudia lo que los programas son capaces de hacer, de la eficiencia de los algoritmos que se emplean, de la organización y almacenamiento de datos y de la comunicación entre programas, humanos y máquinas.

¿CUALES SON LAS FUNCIONES DE LA INFORMATICA?

• Creación de nuevas especificaciones de trabajo.
• Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.


LA CIBERNÉTICA


Es el estudio interdisciplinario de la estructura de los sistemas reguladores. La cibernética está estrechamente vinculada a la teoría de control y a la teoría de sistemas.


La cibernética, según el epistemólogo, antropólogo, cibernetista y padre de la terapia familiar, Gregory Bateson, es la rama de las matemáticas que se encarga de los problemas de control, recursividad e información. Bateson también afirma que la cibernética es "el más grande mordisco a la fruta del árbol del Conocimiento que la humanidad haya dado en los últimos 2000 años".

La palabra cibernética fue utilizada por primera vez en el contexto de "el estudio de auto-gobierno" por Platón en Las Leyes para significar la gestión de las personas. Las palabras de gobernar y el gobernador están relacionados con la misma raíz griega a través de la América cognados gubernare y gubernator.

La cibernética es una disciplina íntimamente vinculada con la teoría general de sistemas, al grado en que muchos la consideran inseparable de esta, y se ocupa del estudio de: el mando, el control, las regulaciones y el gobierno de los sistemas. El propósito de la cibernética es desarrollar un lenguaje y técnicas que nos permitan atacar los problemas de control y comunicación en general.

Un concepto muy importante o casi fundamental en cibernética es el de la retroalimentación. La

retroalimentación parte del principio de que todos los elementos de una totalidad de un sistema deben comunicarse entre sí para poder desarrollar interrelaciones coherentes. Sin comunicación no hay orden y sin orden no hay totalidad, lo que rige tanto para los sistemas físicos como para los biológicos y los sociológicos.

La retroalimentación puede ser positiva, negativa o compensada. La retroalimentación es negativa cuando su función consiste en contener o regular el cambio, es positiva si amplifica o multiplica el cambio en una dirección determinada y se dice que es compensada cuando un regulador ejerce alternadamente retroalimentaciones positivas y negativas, según las necesidades del mantenimiento de la estabilidad del sistema regulado.

1 comentario:

  1. Muy bien Carmen:

    Para fórmulas puedes usar HTML.

    Por ejemplo x1 es:

    x< sub >1< / sub >

    ResponderEliminar