Redundantie (informatietheorie)

Uit Wikipedia, de vrije encyclopedie
Ga naar: navigatie, zoeken

Redundantie in de informatietheorie is een maat voor het aantal overbodige tekens dat een boodschap bevat. Het begrip is dan ook nauw verband met het woord redundant, wat overbodig betekent. Het blijkt logisch dat men voor technische toepassingen de redundantie probeert te minimaliseren. Zo wil men bijvoorbeeld dat een foto niet te veel overbodig geheugen opslorpt op een computer. De redundantie wordt vaak opgesplitst tussen waarschijnlijkheids- en afhankelijkheidsreduntie.

Discrete informatiebron[bewerken]

Een discrete informatiebron zend opeenvolgende symbolen uit. Deze symbolen komen uit het bronalfabet A De totale redundantie R in een boodschap M wordt nu gedefinieerd als R_t=1-\frac{H(M)}{max(H(M))}

Waarbij

  • H(M) de hoeveelheid informatie in de boodschap voorstelt.
  • max(H(M)) de maximale hoeveelheid informatie die een even lange boodschap die gebruik maakt van hetzelfde bronalfabet kan bevatten voorstelt.

Waarschijnlijkheidsredundantie[bewerken]

De informatiebron zendt ieder bronsymbool a_i met een respectievelijke waarschijnlijkheid p_i uit. De gemiddelde hoeveelheid informatie in één enkel symbool uit A, H(A), wordt nu gegeven door:  H(A)=-\sum_{i=1}^n p_i*log_2(p_i) Het blijkt dat deze uitdrukking maximaal is wanneer alle symbolen even waarschijnlijk zijn. Uit het toepassen van de definitie volgt de waarschijnlijkheidsredundantie.

R_w=1-\frac{H(A)}{max(H(A))}.

Voor een geheugenloze informatiebron, dit wil zeggen dat twee opeenvolgende symbolen onafhankelijk zijn. is de waarschijnlijkheidsredundantie gelijk aan de totale redundantie.

Afhankelijkheidsredundantie[bewerken]

De afhankelijkheidsredundantie is het deel van de redundantie dat wordt veroorzaakt door het feit dat opeenvolgende symbolen elkaar beïnvloeden. (Zo volgt er in het Nederlands na de Q bijna altijd een U, deze U biedt geen extra informatie. Ze neemt namelijk geen onzekerheid weg.) In dit geval is het signaal dat de informatiebron uitzend een markov-keten. De afhankelijkheidsredundantie R_a wordt nu gegeven door R_a=1-H(M)/maxH(M) Hierbij is:

  • R_a de afhankelijkheidsredundantie
  • H(M) de hoeveelheid informatie in de boodschap.
  • maxH(M) is hierbij de hoeveelheid informatie wanneer de bron geheugenloos wordt verondersteld. Dit is dus gelijk aan H(A).

Totale redundantie[bewerken]

De totale redundantie wordt nu gegeven door: R_a=1-(R_a-1)*(R_w-1)

Analoge informatiebronnen[bewerken]

Om voor een analoge informatiebron de redundantie te berekenen is het noodzakelijk om een begrenzing op het signaal te stellen. Zo kan men er bijvoorbeeld voor kiezen om het signaal in amplitude te begrenzen. Voor analoge signalen is de definitie van de totale redundantie gelijkaardig. R_t=1-\frac{H(A)}{max(H(A))}

  • R_t is de totale redundantie
  • H(A) is de gemiddelde hoeveelheid informatie per bemonstering
  • max(H(A)) is de maximale hoeveelheid informatie die de bron kan genereren binnen de gegeven begrenzing.

Redundantie minimaliseren[bewerken]

Veel coderingsalgoritmes (bijvoorbeeld huffmancodering) hebben als doel de redundantie in een boodschap te minimaliseren. Men wil namelijk zo weinig mogelijk overbodige tekens opslaan of verzenden. Anderzijds is het soms noodzakelijk om overbodige tekens te hebben. Dit wordt duidelijk in geschreven communicatie. Wanneer er een tikfuot (sic) wordt gemaakt kan de ontvanger de boodschap toch decoderen. Als er geen enkele vorm van redundantie zou zijn, dan zou een tikfout leiden tot een zin met verschillende betekenis.