Curs - Capitolul 1

1.1. Ce este infopmatika?

Termenul „calculator“ (Franța. Informatique) este derivat din informațiile franceză cuvântul (informații) și automatique (Automatic) și înseamnă literalmente „echipamente de informare“.

Răspândită ca și versiunea în limba engleză a termenului - „știință Somputer». ceea ce înseamnă literal „informatică“.

Infopmatika - se bazează pe utilizarea tehnologiei informatice disciplina care studiază structura și proprietățile generale ale informațiilor, precum și legile și metodele sale de creare, stocare, regăsire, transformare, transmitere și aplicare în diferite domenii ale activității umane.

Astfel, informațiile se bazează pe tehnologia de calculator și fără ea este de neconceput.

Infopmatika - disciplină științifică complex cu o gamă largă de aplicații. Prioritățile ei:

Română Academicianul AA Dorodnitsin evidențiază în calculator trei părți legate în mod inextricabil și, în esență - hardware, software și algoritmice.

mijloace tehnice. echipamente sau calculatoare, în limba engleză, cuvântul notat hardware. care se traduce literal ca „mărfuri grele“.

Pentru software-ul notație. care sunt înțelese ca setul tuturor programelor utilizate de calculatoare, iar aria lor de activitate creație și de aplicare. Software-ul cuvântul (literal - „ware moale“), care pune accentul pe echivalența mașinii și a software-ului, precum și capacitatea de a modifica software-ul să se adapteze și să evolueze.

sarcinile de programare sunt întotdeauna precedate de o metodă pentru soluția sa sub forma unei succesiuni de acțiuni care conduc din datele inițiale la rezultatul dorit. cu alte cuvinte, pentru a dezvolta un algoritm pentru rezolvarea problemei. Pentru a indica porțiunea de calculator asociat cu dezvoltarea de algoritmi și metode de învățare și tehnici pentru construirea acestora, termenul este folosit Brainware (Engl creier. - Inteligenta).

Rolul informaticii este extrem de mare în dezvoltarea societății. Din moment ce este asociat începe o revoluție în acumularea, transferul și prelucrarea informațiilor. Această revoluție, în urma revoluțiilor din stăpânirea materiei și energiei, și afectează transformă radical nu numai sfera producției materiale, dar, de asemenea, aspectele intelectuale și spirituale ale vieții.

O creștere progresivă a capacităților de tehnologie de calculator, dezvoltarea de rețele de informații, crearea de noi tehnologii informaționale duce la schimbări semnificative în toate sferele societății: în industrie, știință, educație, medicină, etc.

1.2. Ce este informația?

Termenul „informație“ provine din cuvântul latin „informatio“. ceea ce înseamnă informații, clarificări, prezentare. În ciuda răspândirii largi a termenului, conceptul de informație este una dintre cele mai controversate în știință. În prezent, știința încearcă să găsească caracteristici și regularități comune inerente conceptului de informații cu mai multe fațete. dar, în timp ce conceptul rămâne în mare măsură intuitiv și devine un conținut semantic diferit în diferite sectoare ale activității umane:

  • în utilizarea informațiilor menționate la orice date sau informații care orice persoană interesată. De exemplu, un mesaj cu privire la orice evenimente cu privire la activitățile altcuiva, etc. „Inform“ în acest sens înseamnă „pentru a raporta ceva necunoscut înainte“;
  • în domeniu înțelege informațiile pentru mesajele transmise sub forma unor semne sau semnale;
  • ciberneticii, informații se înțelege că o parte din cunoștințele, care este utilizat pentru orientarea, acțiunea activă, gestionarea, și anume pentru conservarea, îmbunătățirea, dezvoltarea sistemului (Wiener).

Klod Shennon, un om de știință american care a pus bazele teoriei informației - știința care studiază procesele asociate cu transmisia, recepția, conversia și stocarea informațiilor, - consideră că informațiile cum de a elimina incertitudinea în cunoștințele noastre despre ceva.

Iată câteva definiții:

Imaginea științifică modernă a informației formulate foarte precis Norbert Wiener. „Părintele“ ciberneticii. Și anume:

Statistici - un conținut de denumire obținută din lumea exterioară în procesul de adaptare noastre să-l și să se adapteze la simțurile noastre.

Oamenii schimb de informații sub formă de mesaje. Mesajul - este o formă de prezentare a informațiilor sub formă de voce, text, gesturi, atitudini, imagini, date digitale, grafice, tabele, etc.

Informația este o caracteristică nu este mesajul, iar relația dintre mesajul și consumatorul său. Fără prezența consumatorului, cel puțin potențial, pentru a vorbi despre informația este lipsită de sens.

În ceea ce privește prelucrarea datelor pe calculator, informațiile se înțelege o secvență de semne simbolice (litere, cifre, imagini și sunete grafice codificate și altele asemenea), și care transportă un sens reprezentat într-o formă care poate fi citit de calculator. Fiecare nou personaj într-o informație de secvență de caractere mărește volumul de mesaje.

O înțelegere mai dezvoltată a subiectului în discuție este dată în [11, 41, 42].

1.3. În ce formă informația este acolo?

Informațiile pot exista sub formă de:

  • texte, imagini, desene, fotografii;
  • semnale luminoase sau sonore;
  • unde radio;
  • si impulsurile nervoase electrice;
  • înregistrări magnetice;
  • gesturi și expresii faciale;
  • miros și gust;
  • cromozomi prin care prezintă caracteristici și proprietăți ale organismelor, etc. moștenit

Obiecte, procese, fenomene bunurilor corporale sau necorporale, văzute în ceea ce privește proprietățile de informații sunt numite obiecte informaționale.

1.4. Cum se transferă informația?

Informațiile sunt transmise sub formă de mesaje de la o sursă la receptorul său prin canalul de comunicație dintre ele. Sursa trimite un mesaj transmis. este codificat în semnalul transmis. Acest semnal este trimis pe canalul de comunicație. Ca urmare, semnalul primit apare în receptor. care este decodificat și devine primit mesajul.

  1. Mesaj. care conține informații despre prognoza meteo este transmis receptor (vizualizator) de la sursa - un specialist Meteorologic prin canalul de comunicare - de televiziune și aparate TV de emisie.
  2. Condiții de viață creatura pentru organele sale de simț (ochi, urechi, piele, limba, etc.) primește informații din lumea exterioară. o transformă într-o anumită succesiune de impulsuri nervoase, transmite impulsurile de-a lungul fibrelor nervoase, stochează în memorie ca stare de structurile neuronale ale creierului, reproduce ca semnale sonore, mișcări etc. Se folosește în cursul vieții sale.

Transmiterea informațiilor prin intermediul canalelor de comunicare este adesea însoțită de expunerea la zgomot. provocând distorsiuni și pierderea de informații.

1.5. Măsurată prin cantitatea de informații?

Cât de multe informații sunt conținute, de exemplu, în textul romanului „Război și Pace“, în frescele lui Rafael, sau în codul genetic uman? Răspunsul la aceste întrebări nu dă știință și, după toate probabilitățile, nu va fi în curând. Este posibil să se măsoare în mod obiectiv cantitatea de informații. Cel mai important rezultat al teoriei informației este următoarea concluzie:

În termeni foarte generali pot fi neglijate de informații de calitate, să-și exprime numărul său număr, precum și pentru a compara cantitatea de informații conținute în diferitele grupuri de date.

În prezent, s-au răspândit abordări pentru a determina conceptul „cantitate de informație“, bazată pe faptul că informațiile cuprinse în raport, poate fi interpretat vag în sensul noutății sale sau altfel reduce incertitudinea cunoștințelor noastre despre obiect. Aceste abordări utilizează conceptul matematic de probabilitate și logaritmului. Dacă nu sunteți familiarizați cu aceste concepte, puteți sări peste acest material.

Abordări pentru a determina cantitatea de informații. Hartley și formula lui Shannon. inginer american R. Hartley în 1928, procesul de obținere a informațiilor considerate ca alegerea unui mesaj din avansul final de un anumit set de N mesaje la fel de probabile, iar cantitatea de informații I, conținute în mesajul selectat este definit ca un logaritm binar de N.

formula Hartley: I = log2

Să presupunem că trebuie să ghicească numărul de unul dintr-un set de numere una la sută. Conform formulei Hartley vă puteți calcula cantitatea de informație necesară pentru acest lucru: I = log2100> 6644. Astfel, pentru ghicitul corect numărul mesajului conține cantitatea de informații de aproximativ 6.644 de unități de informații.

Aici sunt alte exemple de mesaje în mod egal:

  1. cu clatina monede, „am avut cozile.“ "Eagle Fallen";
  2. pe pagina cărții, „un număr par de litere.“ „Un număr impar de litere.“

Să ne acum stabili dacă posturile sunt la fel de probabil „primul venit din ușile femeii de construcție“ și „primul care a ieșit din ușile clădirii unui om.“ răspunsul la această întrebare nu poate fi clar. Totul depinde de ce fel de clădire este în cauză. Dacă este, de exemplu, stația de metrou, probabilitatea de primul pentru a ieși din uși este aceeași pentru bărbați și femei, iar în cazul în care este o cazarmă militară, pentru bărbați, această probabilitate este mult mai mare decât în ​​cazul femeilor.

În sensul acestui tip de un om de știință american Klod Shennon a propus în 1948 o formulă diferită pentru determinarea cantității de informații care să ia în considerare posibila probabilitatea inegală a mesajelor în set.

formula Shannon: - (. p1log2 p1 + p2 log2 p2 + + pN log2 pN) I =, unde pi - probabilitatea ca ith mesajul este alocat din setul de mesaje N.

Este ușor de observat că în cazul în care p1 de probabilitate. pN egale, atunci fiecare dintre ele este egal cu 1 / N. și formula Shannon Hartley transformă în formulă.

Pe lângă cele două abordări luate în considerare pentru a determina cantitatea de informații, există alte. Este important să ne amintim că orice rezultate teoretice sunt aplicabile numai la un anumit interval de cazuri prezentate ipotezele inițiale.

Ca informații Klod Shennon a propus o unitate de un bit (bit limba engleză. - cifre binar - o cifră binară).

Luptele teoriei informației - cantitatea de informații necesare pentru a distinge între două mesaje la fel de probabile (cum ar fi „vultur“ - „cozi“, „ciudat“ - „ciudat“, etc.). La calcularea cel mai mic bit este numit „o parte“ din memoria calculatorului necesară pentru a stoca una dintre cele două personaje „0“ și „1“ este utilizat pentru a reprezenta date și comenzi intraengine.

Bit - prea mic o unitate de măsură. În practică, folosit de multe ori unități mai mari - bytes. egală cu opt biți. Este de opt biți necesari pentru a codifica oricare dintre cele 256 de caractere ale calculatorului tastatură alfabet (256 = 28).

Acesta este utilizat pe scară largă ca unități mai mari de informații derivate:

  • 1 kilobyte (KB) = 1024 octeți = 210 octeți,
  • 1 Megabyte (MB) = 1024 octeți = 220 octeți,
  • 1 Gigabyte (GB) = 1024 MB = 230 octeți.

Recent, datorită creșterii volumului de informații prelucrate incluse în utilizarea derivaților de unități, cum ar fi:

  • 1 terabyte (TB) = 1024 octeți = 240 GB,
  • 1 Petabyte (PB) TB = 1024 = 250 octeți.

Unitatea de informații pe care le-ar putea alege cantitatea de informații necesare pentru a distinge, de exemplu, zece mesaje la fel de probabile. Acest lucru nu va fi un binar (bit), și o unitate zecimală (DIT) informații.

1.6. Ce se poate face cu informațiile?

  • pentru formalizarea;
  • pentru a distribui;
  • pentru a converti;
  • să se combine;
  • prelucrare;
  • împărți în părți;
  • simplifica;

Toate aceste procese sunt legate de anumite operații asupra informațiilor, numite procese de informare.

1.7. Ce proprietățile informației?

Informațiile sunt de încredere în cazul în care reflectă adevărata stare de lucruri. Inexact informații pot duce la neînțelegeri sau decizii greșite.

informații fiabile pot deveni în cele din urmă nesigure. deoarece are proprietatea depășite. că este, nu mai reflectă adevărata stare de lucruri.

Informația este completă, dacă este suficient pentru a înțelege și de luare a deciziilor. Cum incompletă și informațiile redundante împiedică luarea deciziilor sau poate cauza o eroare.

Acuratețea informațiilor este determinată de gradul de proximitatea față de starea reală a obiectului, proces, fenomen, etc.

Valoarea informației depinde de modul în care este important pentru a rezolva problema. și modul în care, în viitor, se va găsi aplicarea în orice activități umane.

Numai informații în timp util poate aduce beneficiile scontate. La fel de nedorit ca livrarea prematură a informațiilor (când încă nu poate fi digerat), și întârzierea acesteia.

În cazul în care informații valoroase și în timp util este exprimat într-un mod ciudat. ea poate deveni inutil.

Informații devine clar. în cazul în care este exprimat în limba vorbită de cei care au proiectat informațiile.

Informațiile trebuie să fie prezentate într-o formă accesibilă (la nivelul percepției) forma. Prin urmare, aceleași întrebări în diferite moduri sunt prezentate în manuale și publicații științifice.

Informații cu privire la unul și același subiect poate fi rezumat pe scurt (comprimat fără detalii inutile) sau extensiv (detaliu gâfâie). Concizia de informații sunt necesare în cărți de referință, enciclopedii, cărți, tot felul de instrucțiuni.

1.8. Ce este prelucrarea datelor?

Prelucrarea informațiilor - obținerea unor obiecte de informații de la alte obiecte de informații prin executarea unor algoritmi [15].

Prelucrarea este una dintre cele mai importante operații efectuate asupra informațiilor, precum și principalele mijloace de creștere a volumului și a varietății de informații.

echipamente de prelucrare a informației - ea tot felul de dispozitive și sisteme, omenirea a creat, și în primul rând de calculator - generic mașină de prelucrare a datelor.

Încă de lucru pe calculator

Informatică Rezumat