O que a Ciência da Computação estuda?

1131
Abraham McLaughlin

O Informática É uma ciência moderna que estuda os métodos, processos e técnicas para processar, transmitir ou salvar dados de forma digital. Com o grande avanço da tecnologia a partir da segunda metade do século XX, essa disciplina foi ganhando importância nas atividades produtivas, ao mesmo tempo em que aumentava sua especificidade..

O desenvolvimento de computadores, circuitos fechados, robôs, máquinas, telefones celulares e o surgimento da Internet, fazem da computação uma das ciências mais populares das últimas décadas..

A etimologia da palavra computação tem várias origens possíveis. Ele surgiu principalmente como um acrônimo para as palavras informação e automatique (informações automáticas).

Em 1957 foi Karl Steinbuch, que incluiu este termo em um documento chamado Informatik: Automatische InformationsverarbeitungEm 1962, o engenheiro francês Philippe Dreyfus nomeou sua empresa como Société d'Informatique Appliquée. No entanto, o russo Alexander Ivanovich Mikhailov foi o primeiro a usar esse termo como "estudo, organização e disseminação de informação científica".

Entre o seu vasto campo de aplicação, esta ciência dedica-se ao estudo do processamento automático da informação por meio de dispositivos eletrónicos e sistemas informáticos, que podem ser utilizados para diversos fins..

O que a ciência da computação estuda? Formulários

O campo de aplicação da informática ampliou seu espectro com o desenvolvimento tecnológico na última metade do século, principalmente devido ao impulso dos computadores e da Internet..

Suas principais tarefas incluem projeto, desenvolvimento, planejamento de circuito fechado, preparação de documentos, monitoramento e controle de processo..

É também responsável pela criação de robôs industriais, bem como por tarefas relacionadas com o vasto campo das telecomunicações e a criação de jogos, aplicações e ferramentas para dispositivos móveis..

Conformação de computação

A informática é uma ciência na qual convergem conhecimentos e conhecimentos de várias disciplinas, começando pela matemática e física, mas também pela computação, programação e design, entre outros..

Esta união sinérgica entre diferentes ramos do conhecimento é complementada na informática com as noções de hardware, software, telecomunicações, internet e eletrónica..

História

Primeiro computador.

A história da computação começou muito antes da disciplina que leva seu nome. Acompanhou a humanidade quase desde as suas origens, embora sem ser reconhecida como uma ciência.

Desde a criação do ábaco chinês, registrado em 3000 aC e considerado o primeiro dispositivo de cálculo da humanidade, podemos falar em computação.

Esta tabela dividida em colunas, permitiu através dos movimentos de suas unidades realizar operações matemáticas como adição e subtração. Pode ser o ponto de partida desta ciência.

Mas a evolução da computação apenas começou com o ábaco. No século 17, Blaise Pascal, um dos mais renomados cientistas franceses de sua época, criou a máquina de calcular e deu um novo passo evolutivo.

Esse dispositivo servia apenas para adições e subtrações, mas foi a base para o alemão Leibniz, quase 100 anos depois, no século 18, desenvolver um aparelho semelhante, mas com multiplicações e divisões..

Essas três criações foram os primeiros processos informatizados registrados. Demorou quase 200 anos para esta disciplina ganhar relevância e se tornar uma ciência.

Nas primeiras décadas do século 20, o desenvolvimento da eletrônica foi o impulso final para a computação moderna. A partir daí, esse ramo da ciência passa a resolver problemas técnicos decorrentes das novas tecnologias.

Nessa época houve uma mudança de sistemas baseados em engrenagens e hastes para novos processos de impulsos elétricos, classificados por 1 quando a corrente passa e por 0 quando não passa, o que revolucionou esta disciplina..

O passo final foi dado durante a Segunda Guerra Mundial com a fabricação do primeiro computador, o Mark I, que abriu um novo campo de desenvolvimento ainda em expansão..

Noções básicas de ciência da computação

A informática, entendida como o processamento automático de informações por meio de dispositivos eletrônicos e sistemas computacionais, deve ter algumas capacidades para poder se desenvolver.

Três operações centrais são essenciais: a entrada, que se refere à captura de informações; o processamento da mesma informação e da saída, que é a possibilidade de transmitir resultados.

O conjunto dessas capacidades de dispositivos eletrônicos e sistemas de computador é conhecido como um algoritmo, que é o conjunto ordenado de operações sistemáticas para realizar um cálculo e encontrar uma solução.

Por meio desses processos, a computação desenvolveu vários tipos de dispositivos que passaram a facilitar as tarefas da humanidade em todos os tipos de atividades.

Embora sua área de aplicação não tenha limites rígidos, é principalmente utilizado em processos industriais, gestão empresarial, armazenamento de informações, controle de processos, comunicações, transporte, medicina e educação..

Gerações

Dentro da computação e da computação, pode-se falar de cinco gerações de processadores que marcaram a história moderna desde seu surgimento em 1940 até o presente.

Primeira geração

A primeira geração teve seu desenvolvimento entre 1940 e 1952, quando os computadores foram construídos e operados com válvulas. Sua evolução e utilidade se deram fundamentalmente no campo científico-militar..

Esses dispositivos possuíam circuitos mecânicos, cujos valores foram modificados para poderem ser programados de acordo com as finalidades necessárias..

Segunda geração

A segunda geração foi desenvolvida entre 1952 e 1964, com o surgimento de transistores que substituíram as velhas válvulas. Assim surgiram os aparelhos comerciais, que possuíam uma programação anterior.

Outro fato central dessa etapa é o surgimento dos primeiros códigos e linguagens de programação, Cobol e Fortran. Anos depois, novos se seguiram.

Terceira geração

A terceira geração teve um período de desenvolvimento um pouco menor que o de seus antecessores, durou entre 1964 e 1971, quando surgiram os circuitos integrados..

Os menores custos na produção dos aparelhos, o aumento da capacidade de armazenamento e a redução do tamanho físico marcaram esta etapa.

Além disso, graças ao desenvolvimento de linguagens de programação, que ganharam especificidade e habilidades, os primeiros programas utilitários começaram a florescer..

Quarta geração

A quarta geração foi produzida a partir de 1971 e durou uma década, até 1981, tendo os componentes eletrônicos como os principais protagonistas da evolução..

Foi assim que começaram a surgir os primeiros microprocessadores no mundo da informática, que incluía todos os elementos básicos dos antigos computadores em um único circuito integrado..

Quinta geração

Finalmente, a quinta geração começou em 1981 e se estende até o presente, na qual a tecnologia invade todos os aspectos das sociedades modernas..

O principal desenvolvimento desta fase evolutiva da computação foram os computadores pessoais (PCs), que mais tarde deram origem a um vasto grupo de tecnologias associadas que hoje dominam o mundo..

Referências

  1. Informarática, informação e comunicação, Documentação Social: Jornal de Estudos Sociais e Tecnologia Aplicada ', 1999.
  2. Processamento de Informação (Automático), Diego Dikygs, site digital Noções de Computação, 2011.
  3. História do Computadorn, Patricio Villalva.
  4. Revista Revista Horizonte InformparaÉtica Educacional, Buenos Aires, 1999.

Ainda sem comentários