English French German Spain Italian Japanese

sexta-feira, 14 de maio de 2010

Evolução dos Computadores


Quando a humanidade aprendeu a fazer contas?
Há cerca de 4 mil anos. Foi quando os mercadores da Mesopotâmia desenvolveram o primeiro sistema científico para contar e acumular grandes quantias. Primeiro, eles faziam um sulco na areia e iam colocando nele sementes secas (ou contas) até chegar a dez. Aí, faziam um segundo sulco, onde colocavam uma só conta – que equivalia a 10 -, esvaziavam o primeiro sulco e iam repetindo a operação: cada dez contas no primeiro sulco valia uma conta no segundo sulco. Quando o segundo sulco completava dez contas, um terceiro sulco era feito e nele era colocada uma conta que equivalia a 100. Assim, uma quantia enorme como 732 só precisavam de 12 continhas para ser expressa. Essa engenhosidade daria origem à nossa palavra contar – a partir das primitivas contas que enchiam os sulcos.
Excluindo-se o conceito abstrato do zero – isto é, da ausência de quantidades – que só apareceu 600 anos atrás, na Índia, as continhas secas satisfizeram a humanidade por alguns milênios. Mas, conhecendo os seres humanos como nós conhecemos, não é difícil imaginar que, junto com a conta, tenha surgido também o erro de conta, inconsciente ou proposital. O conceito errar é humano deve ser tão antigo quanto à preocupação de inventar algum aparelho para auxiliar na contagem e reduzir a margem de erro. Apesar da fama dos Árabes e dos Chineses, a contribuição mais importante para a abstração matemática foi um trabalho dos Hindus. Sem eles não haveria o zero e, portanto, toda a base da abstração que, junto com o 1, deu origem a tudo o que conhecemos hoje como ciências matemáticas.
A primeira tentativa bem-sucedida de criar uma máquina de contar foi o Ábaco. O nome tem origem numa palavra hebraica abaq (pó), em memória a antiqüíssimos tabletes de pedra, aspergidos com areia, onde os antigos mestres desenhavam figuras com o dedo para educar seus discípulos.
Os inventores do ábaco de calcular, aparentemente, foram os chineses, que deram ao aparelhinho o nome de suan pan. Mas há controvérsias: os japoneses também reivindicam a invenção – no Japão o ábaco chama-se soroban -, para não falar dos russos: o deles é conhecido como tschoty. Feito com fios verticais, o ábaco chinês era incrivelmente eficiente. E rápido: um operador com prática, podia, por exemplo, multiplicar dois números de cinco algarismos cada um com a mesma velocidade com que alguém hoje faria a mesma conta numa calculadora digital. Quase 3 mil anos depois de ter sido inventado, o ábaco é usado em muitas regiões da Ásia por pequenos comerciantes além de ser um ótimo subsídio didático e revela-se útil também para os adultos, quando se trata de aprender os princípios da numeração em base diferente de 10.
Desde que o homem se viu confrontado com a necessidade de realizar, de forma rápida e fiável, um processamento de dados, deu-se o primeiro passo para o surgimento de um conjunto de dispositivos e invenções mecânicas para facilitar essa tarefa.
O que é um computador?
Até meados do século XIX, um computador não era uma máquina, mas uma pessoa, que tinha a função de fazer contas e arbitrar conflitos que envolvessem números. Seus descendentes diretos são os atuais contadores, os técnicos em contabilidade que registram os números para fins legais.
A origem da palavra computar é muito antiga e, começa com o latim putare, fixar quantidades, de onde derivaram palavras como disputar, reputar e imputar. O verbo putar não existe em português, mas seu DNA pode ser encontrado na palavra putativo, ainda muito usada na linguagem jurídica: quando perguntamos “Quem é o pai da criança?”, os possíveis suspeitos são chamados de pais putativos.
Ocorreram no século XVII as primeiras tentativas de mecanizar e automatizar o cálculo por parte das grandes figuras do mundo da ciência e da filosofia. Nesta época os franceses criaram o verbo computer (com acento tônico no e), com o sentido de calcular, mas foram os ingleses que transformaram o verbo no substantivo computer (com acento tônico no u), para designar as primitivas máquinas que hoje chamamos de calculadoras.
A aplicação do termo ao moderno computador só aconteceria a partir de 1944, quando o jornal inglês London Times publicou uma então delirante matéria sobre alguns equipamentos inteligentes que no futuro poderiam vir a substituir o esforço humano. O Times chamou uma hipotética máquina pensante de computer.
Quem inventou o computador?
O computador é uma invenção sem inventor. Ao contrário de muitas novidades, que alguém com nome, sobrenome e atestado de vacina desenvolveu em laboratório, ou descobriu por acaso, o computador sempre foi um aperfeiçoamento constante de idéias anteriores. Muitas vezes, nada acontecia durante séculos, até alguém dar o passo seguinte; e alguns desses passos foram gigantescos.
Nos dias mais recentes, acrescentamos à indústria da invenção a indústria da obsolescência planejada e a criação de uma famosa teoria baseada na idéia de que a capacidade de memória e gestão dos computadores dura apenas um ano – e que neste período novas máquinas são inventadas, tornando as anteriores carroças medievais.
Como surgiu?
Por volta de 1617, o matemático John Napier inventou uma máquina construída com cilindros de ossos, que permitia a realização de multiplicações, divisões e raízes simples, que ficaria conhecida como os “Ossos de Napier”. Com a invenção dos logaritmos por J.Napier, construí-se a primeira régua de cálculo.
Blaise Pascal (1623-1662), geômetra francês, escritor, filósofo e cientista, após dois anos de trabalho, inventou, em 1642, uma máquina calculadora para ajudar o próprio pai nos cálculos dos impostos. A Pascalina (assim chamada) funcionava praticamente como um moderno medidor de luz, executando adições e subtrações e permitindo o transporte de números. Assim como aconteceu com o ábaco, a máquina de Pascal foi submetida a uma série de aperfeiçoamentos por diversos matemáticos da época.
Gottfried von Leibnitz, (1646-1716), filósofo e matemático alemão, a quem se deve o conceito mônada (= substância simples ativa, indivisível do que todos os corpos são feitos), e um dos fundadores do cálculo infinitesimal, aperfeiçoou a idéia de Pascal, construindo em 1671, uma máquina calculadora que executava multiplicações e divisões. Com a invenção do lápis, da caneta e das réguas de cálculo, surgiu uma infinidade de meios de registrar, calcular e processar dados.
Mas uma idéia revolucionária, que, bem mais tarde, levaria à invenção do programa, surgiu com a era industrial. Em 1804, Joseph Marie Jacquard inventou o tear automático Jacquard, as primeiras fichas perfuradas, por cujos orifícios passava a corrente elétrica para o trabalho de computar.
Em 1822, o inglês Charles Babbage (1792-1871) realizou um protótipo de máquina diferencial para construir as tábuas logarítmicas.
Isto convenceu as autoridades britânicas a encorajar e subvencionar as suas pesquisas, visando à construção de uma máquina capaz de executar cálculos mais complexos. Babbage, ajudado pela sua companheira, trabalhou anos a fio no projeto e realização da máquina analítica (com memória e capacidade de programação, embora totalmente por processos mecânicos) que, mesmo impecável como projeto, nunca chegou a funcionar devido às limitações objetivas da tecnologia de então.
A máquina analítica de Babbage, mesmo tendo sido um sonho irrealizado, é considerada o primeiro computador da história, porque a sua programação devia ser feita por fichas perfuradas para cálculos sempre diferentes e tinha uma memória, se bem que limitada.
Mais ou menos na mesma época, estabeleceram-se os fundamentos de álgebra binária, base da informática. A elaboração da álgebra binária deve-se ao inglês George Boole (1815-1864).
As necessidades reais de processamento de grandes volumes de dados que conduzem ao surgimento dos principais dispositivos de cálculo aritmético. Em 1880, nos EUA, o recenseamento da população foi elaborado por processos manuais, pelo que demorou sete anos e meio a ser divulgado o resultado, Herman Hollerith, funcionário do departamento de recenseamento, teve a idéia de conceber uma máquina que, através de processos electromecânicos, tratasse um conjunto de cartões perfurados onde seriam registrados os dados. Assim, no recenseamento de 1890, a máquina de Hollerith permitiu resultados em cerca de três anos.
O sucesso desta invenção foi tal que Holletith criou uma companhia para a produção em série do seu invento, a Tabulating Machine Company que, mais tarde, associando-se a outras empresas deu origem à Internacional Business Machines Corporation (IBM).
A invenção da válvula termoiônica e dos primeiros sistemas de memorização magnética, nas primeiras décadas do nosso século, prepararam o terreno para o nascimento do verdadeiro calculador.
Em 1935, A IBM construiu a primeira máquina de escrever elétrica, cujos componentes possibilitaram o desenvolvimento de enorme variedade de equipamentos para escritório.
Apesar de ser um dos maiores contra-sensos da humanidade, as guerras têm sido uma espécie de dínamo tecnológico: novidades que demorariam anos para surgir em tempos de paz acabam sendo antecipadas pela urgência da vitória (ou o pavor da derrota). Foi durante a Segunda Guerra Mundial (1938-1945) que a ciência da computação deu seu salto definitivo.
O Segredo do enigma indecifrável
Na época da guerra, os nazistas haviam criado uma máquina chamada, muito apropriadamente, de Enigma. Durante os primeiros anos da guerra, os serviços de contra-espionagem dos países aliados conseguiam interceptar as mensagens dos alemães, mas eram incapazes de decifrá-las. E, quando finalmente conseguiam, isso pouco adiantava, porque a mensagem seguinte vinha num código diferente. O que o Enigma fazia era gerar novos códigos a cada mensagem. Desvendar como esses códigos eram reprogramados passou a ser uma prioridade absoluta, e os ingleses resolveram que isso não era trabalho para heróis com bazucas, mas para cientista com massa cinzenta. Um deles foi Alan Turing.
Alan Turing (1912-1954), de Cambridge, forneceu as provas matemáticas e científicas da possibilidade de instruir uma máquina. O trabalho de Alan Turing permaneceu desconhecido até poucos anos atrás por razões militares, porque o cientista inglês tinha colaborado com o governo durante a Segunda Guerra Mundial, no projeto de construção do Colossus, um computador eletromecânico capaz de decifrar as mensagens em códigos alemães.
Logo depois…
Em 1939, inicia-se a construção de uma máquina eletromecânica, resultado da colaboração entre a Universidade de Harvard, a IBM e a Marinha dos EUA. Era uma enorme máquina eletrônica equipada com relés e dispositivos de programação controlada por cartões perfurados ou por fita de papel perfurada. Surgiu então, em 1944, para acelerar os projetos da bomba atômica e dos foguetes teleguiados, o Harvard Mark I.
Em 1946, os Estados Unidos terminaram a construção do ENIAC (Eletronic Numerical Integrator and Calculator), construído na Universidade de Pensilvânia. Era um computador do tamanho de uma sala de conferências, pesava 30 toneladas, fazia cinco mil somas por segundo, abastecido por 18000 válvulas que produziam grande calor e queimavam continuamente. Construído para o exército dos EUA, a sua principal aplicação foi a realização de cálculos balísticos. No entanto, sempre que fosse necessária uma operação diferente, era necessário reprogramá-lo, o que poderia demorar alguns dias.
Hoje, ao clicar o mouse, ou ao teclar um ESC, um usuário não tem a mínima idéia de como as coisas acontecem lá dentro do sistema. Simplesmente, o comando é obedecido, e isso parece a coisa mais natural do mundo. No ENIAC, tudo isso acontecia do lado de fora. Primeiro, um grupo de cientistas desenvolvia equações matemáticas na exata seqüência em que elas tinham que ser digeridas pelo sistema. A seguir, seis especialistas programavam o computador para executá-las girando botões de sintonia e plugando centenas de fios nas tomadas corretas. Portanto, o que hoje chamamos de Sistema Operacional era, em 1946, uma operação manual.
O primeiro teste do ENIAC – uma demonstração feita para generais das Forças Armadas – calculou a trajetória de uma bala de canhão até um alvo predeterminado. Alimentado com as equações, o computador forneceu os dados para que o canhão fosse calibrado. A bala acertou o alvo, mas o que mais impressionou os generais foi o fato de que o tempo que o tempo que o computador levou para fazer o cálculo foi menor que o tempo real ocorrido entre o disparo do canhão e a chagada da bala ao alvo. O problema do ENIAC era que, para calcular uma nova trajetória, tudo deveria ser refeito, das equações até o acerto dos fios e dos botõezinhos. É essa a tarefa mais complicada que hoje vem embutida nos softwares.
Nesta mesma época, construía-se o primeiro computador eletrônico de processamento de dados, o EDVAC, com duas grandes inovações propostas pelo professor John von Neumman (Húngaro): a adoção do sistema binário utilizado na sua construção e a memória para o armazenamento das instruções a serem executadas e dos dados a serem processados.
No pós-guerra, inventado o transistor, um interruptor eletrônico que desempenhas mesmas funções da válvula ocupando o espaço de uma ervilha e sem produzir calor, as dimensões do computador foram reduzidas drasticamente e a velocidade de elaboração das informações aumentada.
Em 1951, surge o primeiro computador a ser produzido em série (48 unidades) utilizando a banda magnética para armazenamento da informação – o Universal Automatic Computer (UNIVAC).
É habitual distinguir e agrupar os computadores segundo a época em que surgiram relativamente às suas principais características. Surgem assim as Gerações de Computadores.
O quadro seguinte sintetiza as características mais importantes dos computadores das cinco gerações atualmente consideradas, no período de 1946 até os nossos dias.
Gerações de Computadores
Geração Período Componentes Principais Características
1ª 1946-1957 Válvulas Eletrônicas Armazenamento interno
Surgem os primeiros suportes magnéticos (tambor magnético)
2ª 1957-1964 Transistores Linguagens de Programação para não especialistas (Cobol, Fortran)
Utilização dos primeiros discos magnéticos
3ª 1964-1974 Circuitos Integrados Preocupação com a “compatibilidade entre equipamentos”
Desenvolvimento do tratamento de dados à distância e das comunicações
4ª 1974-1985 Microprocessador Circuitos VLSI Linguagens de Programação de Alto Nível (Turbo Pascal, C)
Adaptação da máquina ao usuário
Discos magnéticos de capacidade muito grande
5ª 1985*-1990 Discos óticos: Sistemas “multimídia”
Banco de dados relacionais com som e imagem
6ª 1990*-… Sistema de reconhecimento de voz e escrita Utilização de “linguagem natural”
Eficácia no reconhecimento de formas
Sistemas integrados de Inteligência Artificial e Robótica – Miniaturização
* Existe uma grande diferença de opiniões quanto a uma 5ª e 6ª geração de computadores, pois a “fronteira” entre elas não se encontra bem delineada em termos de equipamentos, programas e suas características.
Os anos de 60 e 70 são os anos dos circuitos integrados e, pouco depois da superminiaturização, com a velocidade de algumas centenas de milhares de operações por segundo. Também o transistor teve o seu tempo. A miniaturização dos circuitos por meio de processos semelhantes ao fotográfico e a tecnologia do silício, que proporciona uma redução nos custos antes nem sonhada, conduzem à chamada LSI (Large Scale Integration) e nascem os primeiros chips. O microprocessador torna-se o coração do computador.
Nos anos 80, a queda subseqüente dos preços, a miniaturização, a maior potência trazem o computador para a mesa de trabalho do profissional, do diletante, da dona-de-casa e do estudante.
O futuro é da VLSI (Very Large Scale Integration), com uma velocidade que permite alguns milhões de operações por segundo. É o futuro da inteligência artificial, dos computadores em condições de se programar e fazer uso das experiências além de interagir com o ser humano em termos de linguagem natural.
Os primeiros computadores
O primeiro computador eletrônico para processamento de dados em empresa foi um UNIVAC-1 adquirido pela General Electric em 1954. Mas o primeiro IBM650 deu à IBM a liderança mundial na produção de computadores.
No período de 1954 a 1959, situam-se os computadores de primeira geração, isto é, funcionando na base de milhares de válvulas a vácuo e de grandes dimensões, destinados geralmente a aplicações científicas. A adoção da fita magnética constituiu um enorme avanço tecnológico.
Os Transistores
Entre 1959 e 1964, foram introduzidos os computadores de segunda geração, menores e mais rápidos e com grande capacidade de computação, baseados em transistores e circuitos de estado sólido (solid state). Eram as válvulas, enormes, que ocupavam a maior parte da estrutura física de um computador. Fabricado inicialmente pela Fairchild Semiconductors, o transistor era uma maravilha eletrônica que fazia a mesma coisa que uma válvula – deixar ou não deixar passar uma corrente elétrica -, mas ocupando um espaço muitas vezes menor: enquanto uma válvula mal cabia na palma da mão, um transistor era menor que um dedo mindinho.
Surgiram os programas de linguagem orientada para a máquina, destinados a aplicações comerciais nas empresas. A adoção do disco magnético de alta velocidade e de acesso rápido trouxe elevada rapidez no processamento de dados.
Em 1964, a IBM lançou o primeiro computador de terceira geração, baseado em circuitos integrados miniaturizados de enorme capacidade de entrada-saída, vasto armazenamento interno e operando em bilionésimos de segundos: a família do Sistema/360, com enorme sucesso comercial.
Os microchips
Em 1970, a IBM introduziu sua Série 370, baseada em circuitos com chips de silicone, que para muitos representa a quarta geração, enquanto para outros significa ainda um desdobramento da terceira geração. O microchip tem a mesma função dos transistores, transferir ou reter a corrente elétrica. A diferença está na dimensão: se o transistor era do tamanho de um dedo, o microchip era menor que a impressão digital. O que permitiu o aparecimento dos microchips foi a aplicação prática de novos semicondutores de eletricidade, que tem esse semi no nome porque conduzem – ou não – uma carga elétrica. O computador funciona com base no sistema binário, o sistema binário funciona através de leitura de um impulso elétrico, e quanto mais rápida for essa leitura maior será a capacidade do computador.
O Surgimento dos microcomputadores
É surpreendente, mas antes do microcomputador surgiu o vídeo game. Três sujeitos de 25 anos, que trabalhavam juntos no altamente tecnológico instituto Ingham, em Massachusetts, nos Estados Unidos, e que eram fanáticos por ficção científica, começaram a juntar protótipos de equipamentos que o instituto estava desenvolvendo. E se puseram a pensar se tudo aquilo não poderia ser transformado em algo útil para matar o tempo entre um projeto e outro. Para seus chefes, eles justificariam o esforço dizendo que estavam trabalhando numa demonstração das potencialidades interativas da computação. O resultado foi o SpaceWar, o primeiro game.
O primeiro minicomputador foi lançado pela Digital Equipment Corporation em 1965.
Entretanto, foi o americano Apple, criado por Steve Jobs e Stephen Wozniak, que na década de 70 se tornou popular e acabou por revolucionar a informática.
Ao mesmo tempo a Xerox Corporation, não querendo perder o bonde do avanço tecnológico, decidiu investigar algumas opções de negócios que poderia vir a ter no futuro, além de fabricar e alugar máquinas copiadoras. Para isso, contratou a nata das cabeças pensantes da época – cientistas, principalmente, mas também gênios recém-saídos de universidades de alta tecnologia e confinou essa turma em seu Centro de Pesquisas em Palo Alto, cidade da Califórnia. Chegaram, após dois anos a duas idéias bem interessantes:
A primeira foi um protótipo chamado de Alto, o Alto era simplesmente uma tela vertical de televisão, acoplada a um teclado semelhante ao de uma máquina de escrever, e ambos conectados a uma caixa, pouco maior que um nobreak atual, dentro da qual programas com instruções faziam a engenhoca funcionar. O conceito era incrivelmente revolucionário para uma época em que computadores eram equipamentos enormes, pesadões e, principalmente, caríssimos, tanto que só grandes empresas podiam possuir um. O Alto ainda possuía características bem interessantes:
- Os cientistas criaram pequenos desenhos que ficavam na tela, facilmente reconhecíveis, através dos quais era possível abrir programas (os ícones bem conhecidos por nós);
- Para abrir os desenhos, foi usado um pequeno aparelho, ao movê-lo, reproduzia os movimentos na tela, era o mouse.
- Ao invés de fazer os caracteres, eles já apareciam prontos, num processo semelhante a de uma máquina de escrever, o sistema construía cada um deles, a partir de milhões de pontos isolados (ou pixels como conhecemos), um processo hoje chamado de bit mapping.
- Para operacionalizar os comandos do Alto, a Xerox criou uma linguagem com codificação própria, chamada de Smalltalk.
Foram construídas 150 unidades do Alto, mas nenhuma chegou a ser colocada à venda – se fosse, seu preço na época teria que ser superior a 30 mil dólares. O Alto era tão avançado que muitas de suas características não apareceriam nem na primeira geração dos microcomputadores da Apple, em 1976, mas só na seguinte, com o Macintosh, em 1984.
A segunda grande idéia foi a previsão de interligar todos os computadores pessoais, o que permitiria a seus usuários acessar e transferir dados uns para os outros. É bom lembrar que nem os grandes computadores tinham capacidade de fazer esse tipo de interação na época. Nome que os cientistas da Xerox deram a essa rede: Ethernet.
De uma tacada só, a Xerox havia antecipado toda a revolução das décadas seguintes, construindo o micro pessoal e antevendo a internet atual (porque no começo dos anos 70 a Arpanet, avó da internet, não se parecia em nada com a internet que conhecemos hoje).
Como a Xerox não colocou o Alto à venda, a honra de lançar o primeiro computador pessoal – em inglês Personal Computer, ou PC – coube a uma pequena americana de porte médio, a MITS (Micro Instrumentation and Telemetry Systems) em 1975. E não era bem o que hoje reconheceríamos como sendo um micro, mas um kit de partes vendidas separadamente e que tinham que ser montadas pelo próprio usuário. Mas já tinha o cérebro dos micros atuais. Um único microprocessador, um chip, fabricado pela Intel. E as instruções para que ele pudesse funcionar estavam contidas em um programa em linguagem BASIC, escritas por Bill Gates e seu colega de escola Paul Allen. Ambos tinham, na época, 18 anos, e estavam apenas entrando na faculdade de medicina. Era o Altair 8800, custava 395 dólares e tinha 256 bytes de memória. Como cada letra corresponde a um bit, e 256 bytes são 2 048 bits, a memória básica do Altair era suficiente para guardar na lembrança o conteúdo de uma página. O Altair desapareceu logo depois que a Apple entrou no mercado.
Depois de ver seu projeto rejeitado pelas grandes fabricantes de computadores, Steve Jobs e Stephen Wozniak decidiram montar na garagem da casa de Steve Jobs, o seu microcomputador, em 1976, na Califórnia, e assim a empresa começou. Eram três sócios: Steve Jobs, Stephen Wozniak, e Ron Wayne. Quando a idéia surgiu, Jobs e Wayne trabalhavam na Atari, e Wozniak na Hewlett Packard, a HP. Em janeiro de 1977, Ron Wayne decidiu deixar a sociedade e recebeu sua parte: um cheque de 1800 dólares. . Se tivesse ficado tornaria-se milionário menos de três anos depois. O que ninguém esperava, nem mesmo eles, é que o Apple se tornasse o sucesso estrondoso que foi e, que ambos se convertessem num mito da informática. Numa dessas histórias que parecem contos de fadas, os dois Steves amealharam um milhão de dólares em um ano e o microcomputador mostrou que veio para ficar. O Apple foi, seguramente, o maior responsável pelo desenvolvimento e universalização da microinformática.
A primeira grande empresa a achar que o negócio de micros não tinha futuro foi a Hewlett Packard. Steve Wozniak ainda trabalhava para a HP, em 1976, quando montou o primeiro protótipo do Apple I e tentou convencer sua empresa a entrar naquele novo ramo. Os diretores da HP fizeram sua obrigação profissional: mandaram memorandos a diversas áreas da empresa, convidando os seus responsáveis para ver uma demonstração prática e em seguida perguntando se interessava. A resposta unânime foi não.
Em 1981, a Apple já faturava 500 milhões de dólares anuais. Nada mal para quem, em 1976, tinha começado o negócio com um capital inicial de 1750 dólares, fruto da venda de uma calculadora HP de Jobs e da Kombi de Wozniak.
Os computadores da Apple possuíam joguinhos que não ocupavam muita memória e um editor de texto bem simples. O grande salto – que abriria os olhos das corporações para a primeira real utilidade prática do micro – veio em 1979, com o VisiCalc, a mãe das planilhas eletrônicas de cálculo. Foi o VisiCalc que impulsionou as vendas de um novo modelo que estava sendo lançado, o Apple II, e multiplicou da noite para o dia o valor da Apple como empresa.
A IBM, a empresa responsável pela disseminação da informática nos quatro cantos do mundo e por muitas pesquisas técnicas e mercadológicas, demorou para acreditar no mercado de micros e preferiu focar seus esforços nos grandes sistemas, que eram literalmente uma máquina de fazer dinheiro. Foi só em 1979, após o sucesso do VisiCalc, que a IBM acordou. E, aí, pulou da cama com a corda toda.
Em agosto de 1981, o micro da IBM estreou no mercado, vendido 1565 dólares e com 16K de memória. Mas, quando o IBM-PC chegou às prateleiras, a reação do pessoal da Apple foi de alívio – e de certa arrogância. Steve Jobs diria: a maior empresa de computadores do mundo conseguiu construir um micro pior do que aquele que montamos seis anos atrás numa garagem.
Jobs estava enganado. Com seu sólido nome e sua estrutura de distribuição, já em seu primeiro ano no mercado a IBM vendeu 50 mil micros. E apenas dois anos depois, em 1983, passaria a Apple em vendas. Isso porque quando a IBM entrou no mercado, permitiu que seu sistema operacional – o MS-DOS – fosse usado também por outras companhias. Isso permitia que qualquer empresa de software pudesse desenvolver programas para os micros da IBM e que qualquer empresa de tecnologia pudesse fabricar micros compatíveis com o IBM-PC. A primeira delas foi a Compaq, em 1983, mas logo haveria uma proliferação de marcas famosas no mercado – Toshiba, Dell e HP, entre outras (é o que se chama de arquitetura aberta). Já a Apple resolveu trancar a sete chaves seu sistema operacional o Applesoft BASIC e, portanto, tinha que fazer tudo sozinha.
Rapidamente, as empresas que desenvolviam aplicativos abarrotaram o mercado com programas para os micros da IBM ou seus similares. Além disso, um disquete gravado em um IBM-PC podia rodar em micros de qualquer outra marca, menos num Apple. Um disquete gravado no Apple só podia rodar em outro Apple. Assim, a IBM estabeleceu um novo padrão para o mercado: ela e o resto de um lado, e a Apple sozinha do outro. Era muito peso para um só prato da balança. E, além de tudo, os micros da IBM ainda eram 10% mais baratos que os da Apple.
O primeiro Notebook
O micro portátil foi lançado em 1981, por uma empresa desconhecida, a Osborne Computers. O Osborne I pesava 12 quilos, mas apesar de ser um peso-pesado se tornou um sucesso instantâneo. Tinha tudo o que um micro tinha e era uma pechincha: custava 1800 dólares, só 15% a mais que o micrão da IBM.
Adam Osborne, o dono da empresa, deu a seu micro portátil o nome de laptop (algo como nas coxas), é que quando os computadores pessoais foram lançados, eles ganharam o apelido de desktop, ou em cima da mesa, para diferenciá-los dos enormes computadores das empresas, que ficavam no chão. Daí, o micro portátil virou laptop, no colo. E, mais recentemente, apareceu o palmtop, porque cabe na palma da mão. Do jeito que vai, o próximo passo talvez seja o nailtop, pois deverá caber na unha – e ainda vai sobrar espaço (ora já existe filmadora em forma de comprimido!!!).
Da mesma forma que a IBM relutou para entrar no mercado de micros, também os fabricantes de micros estavam mais que satisfeitos com suas vendas. Porém foi só a Osborne entrar no mercado com os laptops, para os grandões (muito maiores e mais bem aparelhados) lançarem suas versões de micros portáteis, com tecnologia mais avançada, menos peso e menor tamanho. A demanda foi grande e a Osborne não estava preparada, vítima de seu sucesso, a Osborne foi à falência menos de dois anos após revolucionar o mercado.
E o que realmente mudou nos computadores?
Não é bem o que mudou, é o que está mudando, pois tudo indica que o processo evolutivo ainda está só no começo. Essa mudança está na capacidade de processamento e de armazenagem de dados na memória do computador: quanto mais memória, mais tarefas podem ser executadas, e cada vez com mais sofisticação. Os efeitos especiais que se vêem num filme, como O Parque dos Dinossauros, por exemplo, são o resultado prático dessa evolução: eles só não foram feitos antes porque não havia computadores com memória capaz de processar as toneladas de dados necessárias para animar os mastodontes.
Em 1981, quando a IBM lançou seu primeiro micro pessoal, seu custo era muito alto, pouquíssimas pessoas tinham acesso aos computadores, hoje esse preço caiu 1/10 000 000 do valor original. Se a velocidade dos aviões a jato comerciais tivesse aumentado na mesma proporção comparada a um computador, uma hipotética viagem da Terra à Lua num Boeing, que em 1981 levaria 17 dias, hoje seria feita em menos de 15 milésimos de segundo.
O interessante é como o microprocessador invadiu nossas vidas, máquinas de café de escritório ou de refrigerante dos postos de gasolina, que parecem um armário, tem um microprocessador. Quando o usuário escolhe sua opção – café com leite, pouco açúcar, por exemplo -, a máquina executa uma operação, a partir de instruções fixas e seqüenciais: baixa o copinho, mistura os pós de café e de leite e o açúcar, esquenta e despeja a água, e libera o misturador de plástico. Tudo isso é feito a partir de um computador.
As grandes inovações tecnológicas trazidas pela máquina modificaram completamente o perfil dos conhecimentos e habilidades das pessoas, exigindo uma reformulação da formação profissional e dos talentos humanos. O impacto da moderna tecnologia sobre o comportamento das pessoas e das empresas foi certamente profundo e definitivo.




0 comentários:

Postar um comentário

Twitter Delicious Facebook Digg Stumbleupon Favorites More