Yahoo Search Busca da Web

Resultado da Busca

  1. Apresentar o livro Fundamentos da Informação I: perspectivas em Ciência da Informação representa, ao mesmo tempo, uma responsabilidade acadêmico-científica e um prazer. Do ponto de vista acadêmico e científico, esta apresentação volta-se à comunidade de pesquisa e profissional do campo da

  2. entropia na teoria da informação corresponde, portanto, à incerteza probabilística associada a uma distribuição de probabilidade. Definição 1 – A entropia de Shannon H(X) de uma variável aleatória. discreta X , com função de massa de probabilidade fx(x) , x ∈ X (conjunto domínio. da variável), é definida por. ( X ) = −∑ f ...

  3. Teoria da Informação: Codificação de Fonte. estudo de um sistema de comunicações digitais envolve dois aspectos cruciais: a eficiência da representação da informação gerada pela fonte; a taxa de transmissão à qual é possível enviar a informação com fiabilidade através de um canal ruidoso. teoria da informação estabelece os ...

  4. indicação da importância da Teoria Matemática da Comunicação de Shannon e Weaver, apresentada em 1948 e publicada em 1949, como um prenúncio ou mesmo inauguradora do campo. Essa teoria é normalmente conhecida como “Teoria da informação” e tal denominação não se deu sem motivos: trata-se da teoria que pela primeira vez

  5. A teoria da informac¸ao dedica-se ao estudo de medidas de informaca˜o e suas propriedades e aplicac¸oes, nomeadamente em problemas de telecomunicac¸oes. Nao se pode afirmar que existe a teoria da informac¸ao, mas sim diversas teorias da informac¸ao, com fundamentac¸oes conceptuais diversas [4]; as mais famosas sao a teoria da informaca ...

  6. TEORIAS QUALITATIVAS DA INFORMAÇÃO TEORIAS QUANTITATIVAS DA INFORMAÇÃO. Entropia da Informação. Entropia: Rudolf Clausius (1840 e 1870) Na termodinâmica, entropia é a medida do grau de irreversibilidade de um determinado sistema. Mede o grau de desorganização do sistema Quanto menor a chance do sistema voltar ao seu estado original ...

  7. A Entropia é uma medida do conteúdo de informação associado a uma variável aleatória discreta X, com espaço de amostras definido pelo conjunto Ω = { x. } = { x , x , 0 1 ! , x. M 1 } −. de M eventos x. com probabilidade de ocorrência p. , i = 0 , 1, ! , M − 1 . Quando X é a saída de uma fonte de informação discreta, a entropia.