Yahoo Search Busca da Web

Resultado da Busca

  1. As grandezas da teoria da informação. A teoria da informação é baseada na teoria de probabilidades e estatística. Ela se preocupa com medidas de informação das distribuições de probabilidade associadas com variáveis aleatórias.

  2. Aprenda os conceitos básicos da teoria de informação, como informação, entropia e redundância, e suas aplicações em sinais e processamento de dados. Veja exemplos, definições e propriedades desses conceitos matemáticos.

  3. Medidas de informação construtivas: Experiencial: obtida por meio de experimentação. Realista: é determinada com base na realidade, como por exemplo, a qualidade da informação. Abstrato: determinada teoricamente, em termos gerais, como a medida de um livro. Uma medida única de informação existe apenas.

  4. Uma introdução à teoria da informação, que estuda como a informação é medida, comunicada e codificada. Aprenda sobre a origem, a importância e as aplicações dessa área de estudo com exemplos e exercícios.

  5. Estes conceitos de informação são definidos em várias teorias como a física, a termodinâmica, a teoria da comunicação, a cibernética, a teoria estatística da informação, a psicologia, a lógica indutiva e assim por diante.

    • Rafael Capurro, Birger Hjorland
    • 2007
  6. Aprenda sobre a história e a matemática da comunicação, desde os sinais de fumaça até a era da informação. Explore conceitos como capacidade de canal, entropia, códigos de compressão e correção de erro.

  7. teoria da informação. Teoria matemática da comunicação. Foi proposta por Claude Shannon e por Warren Weaver nos anos 40 do século XX. Tem como objetivo o estudo dos mecanismos de transferência de sinais. Shannon utilizou como modelo teórico a analogia com termodinâmica onde a entropia é definida como o grau de desordem dentro do sistema.

  1. As pessoas também buscaram por