<< RETORNAR >>

 

TEORIA DA INFORMAÇÃO E CODIFICAÇÃO  (Aulas iniciais)

 

O Pioneiro: Claude Shannon, por meio da obra “A Teoria Matemática da

                   Comunicação”, 1948.

 

 Dados x Informação x Conhecimento

Os dados são qualquer fluxo entre fonte e destino

A Informação está associada ao processo da informação

O Conhecimento está associado ao processamento da informação

 

Tipos de Fontes

Fonte Contínua: Associada ao sinal analógico

Fonte Discreta: Associada ao sinal digital, transmite símbolos de um alfabeto

fonte.

 

Alfabeto

Uma fonte discreta possui um número finito de símbolos únicos. O

conjunto de símbolos é chamado de alfabeto-fonte.

 

Exemplo 1

O conjunto das letras maiúsculas

A = {A, B, C, D,... Z}

 

Exemplo 2

O conjunto das letras maiúsculas, minúsculas e numerais.

A = {A, B, C,... X, Y, Z, a, b, c,... x, y, z, 0, 1, 2,... 7, 8, 9}

O número de elementos de um alfabeto A é chamado de

 

cardinalidade e designado por |A|. Um alfabeto de n letras sobre A é chamado um n-grama sobre A. A partir de um alfabeto podemos  gerar  um  novo  alfabeto  pela  construção de n-gramas sobre o alfabeto original obtendo um alfabeto extensão.

Seja A={a0, a1, a2,... am-1} onde |A| = m. Podemos gerar A2 contendo m2 2-gramas tal que A2={a0a0, a0a1, a0a2,... am-1am-1}. Generalizando, concatenando-se n letras de A obtemos o alfabeto An contendo mn n-gramas de A.

 

Exemplo

Considere o alfabeto A = {A, B, C,... Z}

Podemos dizer que UNIRON é um 6-grama sobre o alfabeto A.

 

Considerando o alfabeto A3 = {AAA, AAB, AAC,... ZZZ}

Podemos dizer que  UNI  RON  é um 2-grama sobre o alfabeto A3. Observe-se que não se trata de separação silábica, e sim a codificação proposta ao alfabeto.

 

Considerando o alfabeto conjunto das instituições de ensino superior

Podemos dizer que UNIRON é um 1-grama

 

Associações

A -> Z

O Alfabeto A foi associado ao conjunto dos inteiros

A

B

C

...

X

Y

Z

0

1

2

...

24

25

26

 

Quantidade de Informação

Hartley escreveu em 1923 o arquivo que inaugurou a “Teoria da Informação”

Shannon em 1948 descobriu que a função log pode medir a quantidade de Informação.

Suponha E1 e E2 dois eventos com probabilidades de ocorrência p1 e p2. É de se esperar que a quantidade de informação obtida pelo conhecimento da ocorrência de ambos os eventos possa se relacionar ao conhecimento individual da ocorrência de cada evento I(E1 E2) = I(E1) + I(E2), caso E1 e E2

sejam independentes.

A equação acima nos dá a medida de informação resultante da ocorrência de um determinado evento E com probabilidade p(E).

 

Entropia

Dada uma variável aleatória x, a qual pode assumir um número finito de valores possíveis xi, 1 ≤ i n, com probabilidades pi associadas a cada um destes valores, e = 1 i p , denominamos de entropia, designada por H(x), a esperança matemática para a quantidade de informação contida em um evento possível qualquer.

 

 

"Quanto maior a quantidade de informação, menor a certeza!!!"

 

<< RETORNAR >>