Yahoo Search Busca da Web

Resultado da Busca

  1. 24 de out. de 2018 · Livro de referência que trata da teoria da informação em detalhes, desde a apresentação das ferramentas básicas da teoria (entropia, divergência, informação mútua, teorema de tratamento ...

  2. A entropia na teoria da informação é diretamente análoga à entropia na termodinâmica estatística. A analogia resulta quando os valores da variável aleatória designam energias de microestados, então a fórmula de Gibbs para a entropia é formalmente idêntica à fórmula de Shannon.

  3. Este vídeo ensina: Finalmente chegamos ao nosso medida quantitativa da entropia. CRIADO POR Brit Assista a próxima aula: https://pt.khanacademy.org/computing...

    • 7 min
    • 17,7K
    • Khan Academy Brasil
  4. Teoria antiga da informação. Explore a história da comunicação desde os sinais de fumaça até a Era da informação.

  5. 31 de ago. de 2018 · PINEDA, José Octávio. A entropia segundo Claude Shannon: o desenvolvimento do conceito fundamental da Teoria da Informação. São Paulo: PUC, 2006 . PINHEIRO, Lena Vânia Ribeiro. Gênese da Ciência da informação ou sinais anunciadores da nova área. In: O campo da Ciência da Informação: gênese, conexões e especificidades.

  6. A teoria matemática da informação estuda a quantificação, armazenamento e comunicação da informação. Ela foi originalmente proposta por Claude E. Shannon em 1948 para achar os limites fundamentais no processamento de sinais e operações de comunicação, como as de compressão de dados, em um artigo divisor de águas intitulado "A Mathematical Theory of Communication".

  7. 22 de dez. de 2023 · Curiosidade e empenho. Claude Shannon estudou matemática e engenharia elétrica na Universidade de Michigan, em 1936, e fez mestrado e doutorado no Instituto de Tecnologia de Massachusetts (MIT). Seus estudos em conjunto com o matemático Warren Weaver deram origem à teoria da informação.