Yahoo Search Busca da Web

Resultado da Busca

  1. CONSTRUTIVA. Medidas de informação construtivas: Experiencial: obtida por meio de experimentação. Realista: é determinada com base na realidade, como por exemplo, a qualidade da informação. Abstrato: determinada teoricamente, em termos gerais, como a medida de um livro.

  2. As grandezas da teoria da informação. A teoria da informação é baseada na teoria de probabilidades e estatística. Ela se preocupa com medidas de informação das distribuições de probabilidade associadas com variáveis aleatórias.

  3. Fundamentos da Teoria de Informação. 1. Introdução. “In fact, the science of thermodynamics began with an analysis, by the great engineer Sadi Carnot, of the problem of how to build the best and most efficient engine, and this constitutes one of the few famous cases in which engineering has contributed to fundamental physical theory.

  4. Até nossos corpos são feitos de acordo com instruções armazenadas em livros microscópicos conhecidos como DNA. Todos são formatos diferentes de uma mesma coisa: informação. Simplificando, informação é o que permite a uma mente influenciar outra. É baseada na ideia de comunicação como forma de seleção.

  5. Neste artigo, são apresentadas seis correntes teóricas da ciência da informação: os estudos de natureza matemática (incluindo a recuperação da informação e a bibliometria), a teoria sistêmica, a teoria crítica, as teorias da representação, os estudos em comunicação científica e os estudos de usuários. É analisado o conceito ...

    • Carlos Alberto Àvila de ARAúJO
    • 2009
  6. O que é a teoria da informação? Origens da linguagem escrita. História do alfabeto. A Pedra de Roseta. Codificação de fonte. Telégrafos visuais (estudo de caso) Exploração de árvores de decisão. Telégrafos eletrostáticos (estudo de caso) A bateria e o eletromagnetismo. Código Morse e a era da informação. Exploração do código morse.

  7. A medida chave em teoria da informação é a entropia. A entropia é o grau de aleatoriedade, de indeterminação que algo possui. Quanto maior a informação, maior a desordem, maior a entropia. Quanto menor a informação, menor a escolha, menor a entropia.