Mostrando entradas con la etiqueta entropia. Mostrar todas las entradas
Mostrando entradas con la etiqueta entropia. Mostrar todas las entradas

martes, 30 de agosto de 2011

Logros y Contribuciones Científicas de Josiah Willard Gibbs

Josiah Willard Gibbs


Archivo:Josiah Willard Gibbs -from MMS-.jpg

Josiah Willard Gibbs fue un físico estadounidense que contribuyó en gran magnitud a la fundación teórica de la termodinámica

Enfocó su trabajo al estudio de la Termodinámica; y profundizó asimismo la teoría del cálculo vectorial, donde paralelamente a Oliver Heaviside opera separando la parte real y la parte vectorial del producto de dos cuaternios puros, con la idea de su empleo en física. 

Explico por primera vez un fenómeno, que más adelante será llamado Fenómeno de Gibbs en honor a su gran aporte:

Cuando la función que se está desarrollando en Serie de Fourier tiene discontinuidades no es posible que haya una buena convergencia en los entornos de las discontinuidades.
En tales entornos las sumas parciales muestran sobre Y subvalores alrededor del valor real de la función que pueden llegar a un 18% del salto en la discontinuidad.
Si X_0 \, es un punto de discontinuidad, la sucesión de sumas parciales converge al valor
S_N(X_0) = \frac{f(X_0^{+})+ f(X_0^{-})}{2} \,
Como se puede apreciar, a medida que se adhieren más términos a las series, ésta se va aproximando a la onda cuadrada dado que las oscilaciones se vuelven más rápidas y más pequeñas, pero los picos no disminuyen. Estos picos en la series de Fourier de la función cuadrada nunca desaparecen; son llamados el fenómeno de Gibbs nombrado por el físico Americano Josiah Willard Gibbs. Ocurren cada vez que las señales tienen discontinuidades de salto (generalmente en los extremos), y siempre estarán presentes cuando la señal tiene brincos fuertes como en este caso de uno a menos uno. Mediante este fenómeno explica diversos temas entre los cuales se encuentran las matemáticas, la ciencia como universo y la entropía


Archivo:SerierFOndakuno.png
Representacion de la Onda Cuadrada en Serie De Fourier para un termino de la sumatoria.

Archivo:SerierFOndakdiez.png
Representacion de la Onda Cuadrada en Serie De Fourier para diez terminos de la sumatoria.

Archivo:SerierFOndakcien.png
Representacion de la Onda Cuadrada en Serie De Fourier para cien terminos de la sumatoria.

Archivo:SquareWave.gif
Animación de la Onda Cuadrada en Serie De Fourier para treinta terminos de la sumatoria.


Fuentes: 


Logros y Contribuciones Científicas de Norbert Wiener

Norbert Wiener





Los principales aportes de Wiener fueron hacia el concepto de Cibernética, la cual la desarrolló a partir de 1938 con la colaboración del cardiólogo Arturo Rosenblueth.


Gracias a estos aportes Wiener es considerado como el precursor de la Teoría de la Información o la psicologia cognitiva.


También ha escrito muchos libros para comprender a las maquinas y a los hombres. Trabajo en el desarrollo de entropía.


Publicaciones:



  • Cibernética o el control y comunicación en animales y máquinas (Cybernetics or Control and Communication in the Animal and the Machine) (1948)
  • Extrapolation, Interpolation and Smoothing of Stationary Time Series with Engineering Applications (1949)
  • Cibernética y sociedad (The Human Use of Human Beings: Cybernetics and Society) (1950)
  • Ex-Prodigy: My Childhood and Youth (1953) (autobiografía)
  • I am a Mathematician. The Later Life of an Ex-Prodigy (1956) (autobiografía)
  • Nonlinear Problems in Random Theory (1958)
  • The theory of Prediction (1956) Beckenback, E.F.(ed.)"Modern Mathematics for Engineers'. New-York, McGraw-Hill.
  • The Tempter (1959) (novela)
  • Dios y Golem S.A. Comentarios sobre ciertos puntos en que chocan cibernética y religión (God & Golem, Inc. A Comment on Certain Points Where Cybernetics Impinges on Religion) (1964)
  • Inventar : sobre la gestación y el cultivo de las ideas introducción de Steve Joshua Heims ; traducción de Ambrosio García. Barcelona : Tusquets, 1995. ISBN 84-7223-898-9
  • Cybernetics of the Nervous System (1965) (póstumo)
  • Differential Space, Quantum Systems and Prediction, con A. Siegel, B. Rankin, W.T. Martin (1966) (póstumo
Fuente: 


I.3) ¿Cuál es la metáfora usada por Wiener entre información y energía?

Información es información, no materia o energía


Es frase es introducida por Wiener injertando el discurso de la termodinámica del siglo XIX sobre el suyo propio. La operación consiste en comparar el efecto del tiempo sobre un sistema energético con el efecto del tiempo sobre un sistema de informaciones. Un sistema nunca es puro y perfecto: existe degradación de la energía que varía conforme ésta se intercambia así como hay degradación de la información a medida que ésta circula. La entropía considerada como una ley natural es el Infierno del cibernético. Explica la descomposición del ser vivo, el desequilibrio en economía, la disolución del vínculo social, la decadencia. En un primer tiempo, especulativo, la cibernética pretende fundar así el terreno común a partir del cual debe ser posible la unificación de las ciencias naturales con las humanas.

La teoría de la cibernética de Wiener se puede considerar como un legado científico (una ciencia de ciencias) y ha fomentado la investigación en muchas áreas de sistemas de control y de sistemas que tratan con la información. La teoría cibernética es un eje fundamental para la teoría de los sistemas y el pensamiento complejo.

Es así como Wiener establece importantes comparaciones entre los seres vivos y las máquinas, en especial describe algunos de los mecanismos electrónicos y analiza los efectos del progreso técnico en el hombre y la organización social.

Aquí les dejo un breve video sobre la teoría cibernética de Norbert Wiener. De preferencia mirar a partir del segundo 40 (00:40).



I.2) ¿Cómo se define el concepto de entropía y qué relación guarda con el de información?




La Entropía es entendida como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información. Cuando todos los símbolos son igualmente probables (distribución de probabilidad plana), todos aportan información relevante y la entropía es máxima.

Claude Shannon definió en sus prodigioso artículo A Mathematical Theory of Information el concepto de Entropía. determinó que la cantidad de información (medida en bits) necesaria para codificar un dato era de: log(1/p) donde p es la probabilidad de que aparezca ese dato y log es el logaritmo en base 2. Si queremos saber la cantidad de bits que necesitaremos (de media) para codificar un elemento del conjunto tan sólo tenemos que multiplicar la información necesaria para codificar cada elemento por la probabilidad de que ese elemento aparezca.

La entropía es una magnitud que mide la información generada por una fuente de datosLa medida de la entropía puede aplicarse a fuentes de información de cualquier naturaleza, y nos permite codificarla adecuadamente, indicándonos los elementos de código necesarios para transmitirla, eliminando toda redundancia.



Fuentes: