date de măsurare

Principalele obiecte de studiu al științei de calculator sunt proces de informare și de bord. Informatica ca știință independentă a apărut în mijlocul secolului al XX-lea, cu toate acestea, interesul științific a apărut mai devreme de informații și de cercetare în acest domeniu.

Precursor al științei moderne de calculator a fost știința „cibernetica“, fondat de N. Wiener lucrează la sfârșitul anilor 1940 - începutul anilor 50-e. În cibernetica a aprofundat conceptul de informații, informații despre locație a fost identificată în sistemele de control în organismele vii, în sistemele sociale și tehnice. Cibernetică a investigat principiile managementului programului. Inițiatoare în același timp, odată cu apariția primelor calculatoare, cibernetica a pus bazele științifice pentru dezvoltarea lor constructivă, cât și pentru numeroase aplicații.

Computer (PC) dispozitiv automat de informații pentru rezolvarea problemelor prin efectuarea de procese informaționale: stocarea, procesarea și transmiterea informațiilor. Descrierea principiilor și proceselor de legi de informare de bază, de asemenea, se referă la fundamentele teoretice ale informaticii.

Conceptul de „limbaj“ este derivat din lingvistică. Limba - etosistema reprezentare simbolică a informațiilor utilizate pentru stocarea și transmiterea acestuia. Conceptul de limbaj este unul dintre conceptele de bază ale informaticii, deoarece ambele date și programe pe computer sunt prezentate sub formă de desene sau modele de caractere. Limba PC comunicarea cu o persoană mai vin la formele de limbaj natural.

Prin fundamentele informaticii se aplică teoria algoritmilor. Conceptul algoritmului introdus în articolul „prelucrarea de informații“. Acest subiect este acoperit în detaliu în a cincea secțiune a enciclopediei.

Fiecare personaj are o anumită cantitate de informații de text. Se numește greutatea informațiilor caracterului. Prin urmare, cantitatea de informații text este suma greutăților tuturor informațiilor de caractere care alcătuiesc textul.

Se presupune aici că textul - un lanț daisy simbolurilor numerotate. În formula (1) i1 reprezintă informația greutatea primului caracter text, i2 - a doua informație greutate simbol text, etc.; K - dimensiunea textului, și anume, numărul total de caractere din text.

Toate multe simboluri diferite folosite pentru a scrie texte. Se numește alfabetul. Mărime alfabet - un număr întreg, care nazyvaetsyamoschnostyu alfabet. Trebuie avut în vedere faptul că, în alfabetul include nu numai litere opredelennogoyazyka, dar toate celelalte simboluri care pot fi utilizate în text: numere, semne de punctuație, diverse suporturi, spațiu și așa mai departe.

Definiția greutăți de caractere de informații pot apărea în două aproximări:

1) în ipoteza probabilitate egală (aceeași frecvență de apariție) de caracter în text;

2) cu diferite probabilități (de variația frecvenței de apariție) a diferitelor caractere din text.

Apropierea de simboluri de probabilitate egale în text

Dacă presupunem că toate literele alfabetului, în orice text apar cu aceeași frecvență, informațiile greutate toate caracterele vor fi la fel. Fie N - puterea de a alfabetului. Apoi partajați orice caracter din text este de 1 / N-lea a textului. Prin definiție, probabilitatea (a se vedea „Măsurarea abordarea de informare tematică ..“), această valoare este egală cu probabilitatea de apariție a caracterului în fiecare poziție a textului:

Conform formulei K.Shennona (vezi „substanțială prin măsurare informații ..“), Cantitatea de informații realizat prin simbolul se calculează după cum urmează:

Prin urmare, un simbol de informații în greutate (i) și alfabetul de ieșire (N) sunt interconectate prin formula Hartley (cm „Informația de măsurare. Abordarea Semnificativ“)

Cunoscând greutatea unui simbol informație (i) și dimensiunea caracterelor de text exprimate cantitate (K), se poate calcula cantitatea de informație de text prin formula:

Această formulă este o variantă specială a formulei (1), în cazul în care toate simbolurile au aceleași informații în greutate.

Din formula (2) rezultă că pentru N = 2 (alfabet binar) greutate informație a unui simbol este de 1 bit.

Din punctul de vedere al abordării în ordine alfabetică la măsurarea information.1 bit - o greutate simbol de informații ale alfabetului binar.

O unitate mai mare de informații este octet.

1 octet - un simbol de informații din capacitatea de greutate alfabet de 256.

Deoarece 256 = 2 8 urmează apoi de la formula de comunicare Hartley între bit octet și: