Definizione informatica

Il termine calcolo ha origine nella parola latina computatio . Questa parola ci consente di affrontare la nozione di computazione come un conto o un calcolo, ma è generalmente usata come sinonimo di informatica (dall'informatica francese). In questo modo, si può dire che il calcolo riunisce conoscenze e metodi scientifici .
Questi sistemi informatici automatizzati sono realizzati attraverso strumenti specifici creati per questo scopo, computer o computer .

informatica

L'origine dell'informatica, dicono gli esperti, risale a più di trecento anni fa, quando iniziarono a sviluppare macchinari incentrati su vari compiti di calcolo. Nel 1623, Wilhelm Schickard inventò il primo calcolatore meccanico .

Tuttavia, i computer capaci di processi multipli (cioè, non limitati a calcoli di tipo matematico) iniziarono ad emergere negli anni '40. L'uso massiccio e domestico di queste macchine sarebbe venuto solo negli anni '80, con la produzione di personal computer o PC . La fine del XX secolo, con l'avvento di Internet, rappresentò un nuovo impulso per tutto ciò che riguardava l' informatica .

Per quanto riguarda la teoria dell'informatica, bisogna dire che è considerata una scienza incentrata sullo studio e sulla definizione formale dei calcoli. Questa disciplina definisce il calcolo come il prodotto di una soluzione o di un risultato, specialmente nel senso matematico / aritmetico del concetto, utilizzando un processo o un algoritmo.

In altre parole, l'informatica è la scienza che studia e sistematizza gli ordini e le attività dettati in una macchina, analizzando i fattori che partecipano a questo processo, tra cui i linguaggi di programmazione, che consentono di generare un elenco di dati pulito e comprensibile per la macchina.
Nel processo vengono eseguiti due tipi di analisi, una organica (traduzione delle indicazioni in un linguaggio comprensibile dal computer) e una funzionale (raccolta delle informazioni disponibili nel processo di automazione).

Per parlare di informatica è necessario definire in precedenza il concetto di algoritmo . Un algoritmo è un insieme di passaggi determinati strutturati nel tempo che rispondono a un elenco di regole chiare e che mirano a risolvere un particolare problema. Deve soddisfare determinate condizioni: essere definito (chiaro, dettaglio ciascuno dei passaggi necessari per rendere inequivocabile), finito (le azioni che lo compongono devono essere concluse in modo logico e chiaro), avere zero o più voci e con una o più output ed efficacia (usa esattamente ciò che è necessario per risolvere il problema, spendendo la quantità minima di risorse ed essendo in grado di eseguire in modo efficiente).

Altre aree che includono anche l'informatica sono l'intelligenza artificiale legata ai computer, l'elaborazione grafica e di rete, i sistemi di database, la matematica dei computer e diversi tipi di ingegneria relativi a questa macchina.

Attualmente lo sviluppo dell'informatica e delle tecnologie correlate ha permesso lo sviluppo di vari tipi di documenti, l'invio e la ricezione di posta elettronica, la creazione di disegni digitali, l'editing audio e la stampa di libri, tra gli altri. molti altri processi.

Va notato che la tecnologia utilizzata nel calcolo è di tipo microelettronico con componenti fisici (processore, memoria, ecc.) E logici (sistema operativo e programmi).

Raccomandato