Resultado da Busca
24 de out. de 2018 · Livro de referência que trata da teoria da informação em detalhes, desde a apresentação das ferramentas básicas da teoria (entropia, divergência, informação mútua, teorema de tratamento ...
A entropia na teoria da informação é diretamente análoga à entropia na termodinâmica estatística. A analogia resulta quando os valores da variável aleatória designam energias de microestados, então a fórmula de Gibbs para a entropia é formalmente idêntica à fórmula de Shannon.
Este vídeo ensina: Finalmente chegamos ao nosso medida quantitativa da entropia. CRIADO POR Brit Assista a próxima aula: https://pt.khanacademy.org/computing...
- 7 min
- 17,7K
- Khan Academy Brasil
Teoria antiga da informação. Explore a história da comunicação desde os sinais de fumaça até a Era da informação.
31 de ago. de 2018 · PINEDA, José Octávio. A entropia segundo Claude Shannon: o desenvolvimento do conceito fundamental da Teoria da Informação. São Paulo: PUC, 2006 . PINHEIRO, Lena Vânia Ribeiro. Gênese da Ciência da informação ou sinais anunciadores da nova área. In: O campo da Ciência da Informação: gênese, conexões e especificidades.
A teoria matemática da informação estuda a quantificação, armazenamento e comunicação da informação. Ela foi originalmente proposta por Claude E. Shannon em 1948 para achar os limites fundamentais no processamento de sinais e operações de comunicação, como as de compressão de dados, em um artigo divisor de águas intitulado "A Mathematical Theory of Communication".
22 de dez. de 2023 · Curiosidade e empenho. Claude Shannon estudou matemática e engenharia elétrica na Universidade de Michigan, em 1936, e fez mestrado e doutorado no Instituto de Tecnologia de Massachusetts (MIT). Seus estudos em conjunto com o matemático Warren Weaver deram origem à teoria da informação.