Resultado da Busca
Para a área de Teoria da Informação, a entropia é definida como sendo uma forma de medir o grau médio de incerteza a respeito de fontes de informação, o que consequentemente permite a quantificação da informação presente que flui no sistema.
Tópico 2 – Parte II: Fundamentos da Teoria de Informação Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP 13 3.3. Entropia e Codificação de Fonte Para exemplificar o uso do conceito de entropia no âmbito da teoria de codificação, lidaremos com o conceito de codificação de fonte. Trata-se, fundamentalmente, do
Entropia formulado por Claude Shannon no desenvolvimento da Teoria da Informação, bem como as influências que este e outros conceitos da mesma teoria tiveram em outras ciências, em especial a Física.
- 601KB
- 126
A medida chave em teoria da informação é a entropia. A entropia é o grau de aleatoriedade, de indeterminação que algo possui. Quanto maior a informação, maior a desordem, maior a entropia. Quanto menor a informação, menor a escolha, menor a entropia. [1]
Na Teoria da Informação, entretanto, entropia é uma forma de medir a quantidade da informação presente que flui no sistema. Isto, associado à ideia de que, quanto mais incerto é o resultado de um experimento aleatório, maior é. a informação que se obtém ao observar a sua ocorrência.
entropia – medida de incerteza ou aleatoriedade de variáveis aleatórias individuais ou combinadas; e . informação mútua – dependência estocástica entre variáveis aleatórias. Este capítulo reúne fundamentos teóricos da teoria da informação, sendo expressos de maneira descritiva.
Teoria da Informação: Codificação de Fonte. estudo de um sistema de comunicações digitais envolve dois aspectos cruciais: a eficiência da representação da informação gerada pela fonte; a taxa de transmissão à qual é possível enviar a informação com fiabilidade através de um canal ruidoso. teoria da informação estabelece os ...