Introdução a Informática – Parte 01

Introdução

“Informática é um termo usado para descrever o conjunto das ciências relacionadas ao armazenamento, transmissão e processamento de informações em meios digitais, estando incluídas neste grupo: a ciência da computação, a teoria da informação, o processo de cálculo, a análise numérica e os métodos teóricos da representação dos conhecimentos e da modelagem dos problemas. Mas também a informática pode ser entendida como ciência que estuda o conjunto de informações e conhecimentos por meios digitais.” (1)

Em dois artigos anteriores, eu postei algo sobre Programação e sobre Análise de Sistemas. Seguindo a mesma linha, de “desmistificar” a aparente complexidade deste universo, eu reparei que alguns conhecimentos que eu considero como “base” para o entendimento dos sistemas computacionais são pouco abordados, ou são vistos com uma superficialidade muito grande.

E boa parte do que temos hoje em tecnologia de sistemas e processamento de dados é uma evolução natural desta base. Logo, eu considero fundamental saber um pouco mais da origem das coisas, e da evolução histórica da computação no último século, para entender um pouco mais no que ela é baseada, e por quê (e como) ela evoluiu a saltos gigantescos desde então.

Um pouco de História

Fiz meu primeiro curso de programação com 13 anos de idade, e meu primeiro curso de nível profissional de informática com 15 anos, em uma escola de informática em Botucatu, fundada por um ex-técnico de Software da IBM e sua esposa. Antes de sentarmos na frente de um IBM-PC e ligá-lo pela primeira vez, tivemos uma semana de aula sobre “Introdução a Informática”, para que todos tenham uma noção de o que é um micro-computador, o que têm dentro, e pelo menos uma noção de como as partes internas funcionam.

Particularmente eu achei aquilo extremamente interessante, pois na semana seguinte, quando fomos para a frente dos computadores, mesmo sem ter visto um, nós sabíamos o que precisava ser feito para ligá-lo, e o que acontecia desde o momento que você apertou o botão “ON” até aparecer o “Prompt” de comando do sistema operacional ( na época, “A:\>” ).

Seguindo esta linha, estou dando inicio a uma série de Posts, com a TAG “Introdução a Informática”, onde eu vou tentar trazer esse conhecimento para vocês, com a maior riqueza de detalhes que a minha memória permite, estendendo esta abordagem até os micro-computadores dos dias de hoje. Recomendo essa literatura a todos que estão iniciando seus estudos em computação, e estendo o convite a todos que tenham alguma curiosidade sobre isso.

A necessidade é a mãe da invenção

A necessidade de mensurar coisas é tão antiga quanto a história da civilização. Uma vez que o homem aprendeu a cultivar a terra, por volta do período neolítico (8 mil A.C.). Este período é considerado um importante avanço social, econômico e político, onde o homem descobre que é muito mais vantajoso agir em grupo do que individualmente.

Com a subsistência mais fácil, não tendo que sair para caçar todos os dias, os neolíticos tinham mais tempo para interagir entre si, então desenvolveram as primeiras atividades de lazer, descobrindo a arte da cerâmica e depois como comercializá-la. O surgimento da escrita e a criação do Estado pelas primeiras da Antiguidade marcou o final da era neolítica.

Desde então, sempre existiu a necessidade de mensurar coisas. Quantidade de sementes, frutos produzidos, criação de unidades monetárias (dinheiro) para facilitar relações comerciais e afins. Embora a matemática conhecida hoje — usando algarismos indo-arábicos (1234567890), com ponto decimal e frações date de 1000 D.C., a utilização dessa representação em algarismos decimais é datada de 2 A.C.

O Ábaco, um instrumento de cálculo que data de 5500 A.C., ele é considerado como uma extensão do ato natural de contagem com os dedos. E também usa o sistema decimal (onde usamos 10 algarismos para representar um número). O Ábaco ainda é usado hoje para ensinar a crianças somar e subtrair.

Invenções mecânicas

Buscando dar mais precisão, segurança e velocidade aos processos de operações numéricas, várias invenções mecânicas foram surgindo ao longo do tempo, como a máquina de operações de Pascal (Século XVII), o Tear de cartões perfurados de Jacquard (Século XVIII), o projeto da máquina analítica de Babbage, até a máquina eletromecânica de Herman Hollerith, um equipamento que usava cartões perfurados usado para calcular o censo populacional dos EUA de 1890 em APENAS um ano — o censo da década anterior demorou 7 anos … Através de um painel de fios em seu tabulador 1906 Type I, foi possível executar diferentes trabalhos sem a necessidade de ser reconstruído. Estes foram considerados os primeiros passos em direção à programação. Em 1911, quatro corporações, incluindo a firma de Hollerith, se fundiram para formar a Computing Tabulating Recording Corporation. Sob a presidência de Thomas J. Watson, ela foi renomeada para IBM (“International Business Machines”).

O papel da eletricidade

Mesmo sendo conhecidos desde a Grécia antiga, os fenômenos magnéticos e os fenômenos elétricos somente começaram a ser estudados e explicados cientificamente a partir do século XVII. No início do século XIX, Hans Christian Ørsted obteve evidência empírica da relação entre os fenômenos magnéticos e elétricos. A partir daí, os trabalhos de físicos como André-Marie Ampère, William Sturgeon, Joseph Henry, Georg Simon Ohm, Michael Faraday foram unificados por James Clerk Maxwell em 1861 por meio de equações que descreviam ambos os fenômenos como um só: o fenômeno eletromagnético. Esta unificação foi uma das grandes descobertas da física no século XIX. Com uma teoria única e consistente, que descrevia os dois fenômenos anteriormente julgados distintos, os físicos puderam realizar vários experimentos prodigiosos e inventos úteis, como a lâmpada elétrica (Thomas Alva Edison) ou o gerador de corrente alternada (Nikola Tesla)

Entre 1930 e 1940, George Stibitz, um pesquisador da Bell Labs percebeu que os relés eletromecânicos usados em centrais telefônicas poderiam ser usados para realizar operações sequenciais, e desenvolveu os primeiros circuitos de lógica digital usando relés. Os projetos de computadores usando relês da Bell foram usados pelos EUA para fins militares, usando 1400 relês e com memória de 10 números, eles eram usados para processamento de cálculos de direcionamento de artilharia anti-aérea. Os trabalhos de George Stibitz foram baseados nos princípios de álgebra booleana, concebidos por George Boole quase um século antes, mas que até o momento não tinham aplicação prática.

Com o surgimento da válvula termo-iônica, como uma forma de modulação direta de energia, bem mais rápida que um relê, todo o conhecimento adquirido até então foi aproveitado para a evolução desta tecnologia. Porém, as válvulas queimavam com muita facilidade, e consumiam muita energia para funcionar. Mas a velocidade de chaveamento de energia era tão mais rápida que um relê, que logo surgiram os primeiros computadores usando esta tecnologia. A universidade de Iowa em 1942 montou um dos primeiros computadores valvulados, não programável, mas funcional para resolver equações de primeiro grau.

O primeiro computador totalmente eletrônico e programável foi o ENIAC (Electronic Numerical Integrator And Computer). Construído durante a segunda guerra mundial na universidade da Pensilvânia, ficou pronto em 1946. Usava mais de 17 mil válvulas, consumia 150 kW, e pesava 27 toneladas …. mas era milhares de vezes mais rápido do que qualquer computador a relê. Por exemplo, o computador Harward Mark II (1947), que usava relês de alta velocidade, operava a uma frequência de 8 Hz (ciclos por segundo). O ENIAC operava a uma frequência vertiginosa de 5 mil Hz (5 KHz), o que permitia ele calcular aproximadamente 357 multiplicações de números de 10 dígitos por segundo. Hoje, um processador de um SmartPhone ultrapassa facilmente 1 GHZ ( Um BILHÃO de ciclos por segundo).

Onde estão os “zeros” e “uns” ?

O sistema de numeração binário (base 2), usa apenas dois algarismos para representar um valor: ‘0’ ou ‘1’. Em informática, a menor unidade de armazenamento de um dado é o “bit”, que coincidentemente também armazena os valores ‘0’ ou ‘1’. Quando agrupamos 8 bits, temos um Byte ( também chamado de “octeto” de bits). Utilizando um BIT, armazenamos 2 valores diferentes (0 ou 1). Usando 2 bits, armazenamos quatro sequências de bits diferentes ( 00, 01, 10 e 11). Usando 8 Bits (um Byte) podemos armazenar 2 ^ 8 sequencias diferentes, ou seja, 256 combinações diferentes de 0 e 1 (de 00000000 a 11111111). Convertendo isso para numeração decimal (ou base 10), temos 256 valores diferentes (entre 0 e 255).

E por que eu preciso saber disso ?

Bem, meu chapa … toda a base de programação e processamento de dados são sequencias de zeros e uns. Isto somente vai ser quebrado com a computação quântica, que surgiu como teoria a alguns anos, e atualmente os estudos na área estão tornando possível a criação do Hardware para permitir este tipo de processamento. A computação quântica deve quebrar paradigmas em campos de aplicação onde as máquinas tradicionais (utilizando lógica booleana) chegaram em um limite tecnológico “físico” de desempenho. A menor unidade de informação em um computador é um Byte, que nada mais é do que um agrupamento de 8 bits. Logo, todo o armazenamento de dados e fluxo de informações entre os componentes de um computador e seus componentes auxiliares (ou periféricos) serão sequências ou blocos de zeros e uns 😉

E onde entra a tal da “programação” ?

Programar significa fornecer uma lista de instruções para realizar uma determinada tarefa. Quando você compra um produto desmontado, que vêm com um manual de instruções de montagem, ele descreve em linguagem natural a lista de passos para você montar o produto. Isto pode ser considerado um programa, que ao ser executado na ordem certa e com os materiais corretos, resulta no produto montado.

Um programa de computador é exatamente isso. Qualquer programa de computador é composto de uma sequência de instruções e dados, regidos por uma gramática e um conjunto de operações especificas, cujo objetivo final é enviar ao processador do equipamento uma sequência de códigos binários que representem a sequência de processamento a ser executada. Nesta sequência de instruções podemos interagir com os periféricos do equipamento, como a interface de vídeo, o teclado, uma impressora, uma unidade de armazenamento de dados, etc.

Conclusão

Este tópico é só para “abrir o apetite”. No próximo vamos dar uma boa olhada no que tem dentro de um computador, o que é um “Sistema Operacional”, por quê precisamos de um, e depois o que acontece quando a gente liga um equipamento.

Desejo a todos uma boa leitura, e TERABYTES de sucesso 😀

Até o próximo post, pessoal 😉

Referências

INFORMÁTICA. In: WIKIPÉDIA, a enciclopédia livre. Flórida: Wikimedia Foundation, 2015. Disponível em: <https://pt.wikipedia.org/w/index.php?title=Inform%C3%A1tica&oldid=43615873>. Acesso em: 12 out. 2015.

ÁBACO. In: WIKIPÉDIA, a enciclopédia livre. Flórida: Wikimedia Foundation, 2015. Disponível em: <https://pt.wikipedia.org/w/index.php?title=%C3%81baco&oldid=43500340>. Acesso em: 12 out. 2015.

ALGARISMOS INDO-ARÁBICOS. In: WIKIPÉDIA, a enciclopédia livre. Flórida: Wikimedia Foundation, 2015. Disponível em: <https://pt.wikipedia.org/w/index.php?title=Algarismos_indo-ar%C3%A1bicos&oldid=43058223>. Acesso em: 12 out. 2015.

ELETROMAGNETISMO. In: WIKIPÉDIA, a enciclopédia livre. Flórida: Wikimedia Foundation, 2015. Disponível em: <https://pt.wikipedia.org/w/index.php?title=Eletromagnetismo&oldid=43478266>. Acesso em: 12 out. 2015.

HERMAN HOLLERITH. In: WIKIPÉDIA, a enciclopédia livre. Flórida: Wikimedia Foundation, 2015. Disponível em: <https://pt.wikipedia.org/w/index.php?title=Herman_Hollerith&oldid=42754476>. Acesso em: 12 out. 2015.

George Stibitz. (2015, August 15). In Wikipedia, The Free Encyclopedia. Retrieved 07:19, October 12, 2015, from https://en.wikipedia.org/w/index.php?title=George_Stibitz&oldid=676218293

Harvard Mark II. (2014, September 19). In Wikipedia, The Free Encyclopedia. Retrieved 07:37, October 12, 2015, from https://en.wikipedia.org/w/index.php?title=Harvard_Mark_II&oldid=626186726

ENIAC. (2015, October 12). In Wikipedia, The Free Encyclopedia. Retrieved 07:44, October 12, 2015, from https://en.wikipedia.org/w/index.php?title=ENIAC&oldid=685327153

SISTEMA DE NUMERAÇÃO BINÁRIO. In: WIKIPÉDIA, a enciclopédia livre. Flórida: Wikimedia Foundation, 2015. Disponível em: <https://pt.wikipedia.org/w/index.php?title=Sistema_de_numera%C3%A7%C3%A3o_bin%C3%A1rio&oldid=43459004>. Acesso em: 12 out. 2015.

Outras referências

http://www.infoescola.com/pre-historia/periodo-neolitico/

http://www.newtoncbraga.com.br/index.php/curiosidades/4856-cur008

http://www.techtudo.com.br/artigos/noticia/2012/09/computadores-a-valvulas.html

Anúncios

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s