martes, 11 de agosto de 2015

Entropía de Shannon

"El concepto de entropía de Shannon jugará un papel importante en el futuro...la entropía de Shannon contiene una relación con la magnitud de Boltzman"
La entropía de Shannon establece que entre mas datos tengamos menor será la entropía, algo similar al límite en estadística.
La complejidad de  una figura, un dibujo, un objeto, o una  estructura  esta relacionada con la dificultad para describirla.

En el caso de las series financieras como el tipo de cambio, las primeras diferencias muestran en muchas ocasiones un comportamiento fractal, que implica un cierto comportamiento errático y que puede ser abordado desde el punto de vista de los fractales.

0 comentarios:

Publicar un comentario

Suscribirse a Enviar comentarios [Atom]

<< Inicio