I(coisa)=LOG(1/(probabilidade de a coisa se dar)) onde LOG eh logaritimo base 2.
Por exemplo:
O indice de surpresa ou a quantidade de "auto-informacao" contida no atirar de uma moeda para cara e coroa eh:
I(cara ou coroa)= LOG(1/(probabilidade de dar cara ou coroa= 0,5))= LOG (1/0,5)=LOG2=1
I(cara ou coroa)= 1 bit de informacao. Como voce deve saber, fisicamente, o valor de um bit é, de uma maneira geral, armazenado como uma carga elétrica acima ou abaixo de um nível padrão em um único capacitor dentro de um dispositivo de memória. Como estou tentando reduzir tudo a bytes, vamos prosseguir...
Agora, suponhamos um evento com seis possiveis estados. A probabilidade de acontecer um dos estados eh 1/6. Portanto o indice de surpresa eh LOG(1/(1/6)=LOG(6) = 2,585 bits.
O indice de surpresa eh otimo para predizer estados randomicos da informacao.
Por exemplo, peguemos sua vida.
Imagine nela eventos que se desdobram em probabilidades fortuitas.
"Sairei de ferias?" por exemplo.
Se voce tem contas a receber, digamos 6 clientes que podem pagar e eles estao associados a grana para voce sair de viagem, o indice de surpresa dessa situacao sera de 2,585 bits. Ou seja, o mesmo indice de surpresa se voce atirar um dado, e sair um dos lados, nao importa qual.
Ainda usando "sua vida" como exmplo, imagine que voce pensa que saia de ferias, e tem absolutamente tudo organizado. Portanto, a probabilidade de haver quarto no hotel = 100%, ou, de outra maneira =1, pois vc estah 100 certo, pois telefonou reservando. Logo, o indice de surpresa sera LOG (1/1)=LOG1=0, ou seja, nao ha nenhuma surpresa nessa situacao.
Isso quer dizer que todas as situacoes garantidas de sua vida tem 0 bits de surpresa, ou seja, em nada. Isso eh obvio. Se no exemplo anterior do hotel voce tivesse esquecido de reservar, o grau de surpresa seria entao LOG(1/(1/2)), porque poderia haver ou nao vaga. Corresponderia a lancar uma moeda, portanto, 1 bit de surpresa. Ainda com o exemplo da sua vida, imagine aquelas situacoes onde ha 300 milhoes de possibilidades de as coisas acontecerem. Portanto, altissimo indice de supresa, pois LOG (1/(1/300.000.000)=8.47 bits... Nem tao grande assim eh o indice numericamente, mas a situacao eh surpreendente.
Para cada situacao pensada na sua vida, ha um indice de surpresa ou self-information. Se outras situacoes sao compostas por dois tipos de coisa que tem seus indices de surpresa individuais, entao o indice de surpresa geral sera a soma desses dois. Por exemplo, as chances de chover: sim ou nao, portanto 0.5 e surpresa 1 bit. As chances de vc nao levar guarda-chuva porque vc os detesta, portanto voce esta 100 certo de que nao levara, LOG (1)=0, zero supresa. O grau de surpresa de voce sair e ser pego sem guarda-chuva durante um temporal eh 1 bit, pois vc soma os dois anteriores.
Bacana mesmo eh se vc pensasse em sua vida calculando o indice de surpresa para tudo o que pudesse vir... Isso significaria fazer um somatorio das surpresas de todas as situacoes. Seria mais ou menos alguma coisa assim:
Onde H eh o indice de incerteza (ou "surpresa", que tal? Mais familiar agora?) e x eh sua vida. A formula quer dizer "um somatorio das incertezas nas situacoes (variando de 1 a k)".Mas isso jah eh outra historia, pois esse eh o indice que mede a entropia da sua vida...
(p.s.: Nunca vi uma teoria tao picareta. Na verdade, isso eh a teoria da informacao aplicada picaretamente. No exemplo, nao se explica por exemplo situacoes que nao tem a menor possibilidade de acontecer, ou seja LOG (1/(0)), matematicamente estupido, mas que se considera 0. )
fui dando scroll e rolando junto, mas de rir.... evidentemente, não consegui ler nada a partir da terceira linha. quando apareceu aquela fórmula então, explodi em gargalhada!!!
ReplyDelete.
em suma:
.
o problema é de junta, isto é, junta tudo e joga no lixo.
bjão.
hauhauhauhuahauhuahuahuah
ReplyDeletejá adotei essa teoria matémática aplicada picateramente à 'minha vida' prática, beibe!
hauhauhauhauhauhauhauhhauhau
muito boooom!
picaretamente...oh Lord!
ReplyDelete