Win7 Conexão Remota

111Vá ao Painel de Controle> Sistema> Configurações avançadas do sistema.

 

  1. Ir para a aba Remoto.
  2. Em Assistência remota, colocar uma marca de seleção em Permitir conexões de Assistência Remota para este computador
    Nota: Esta adiciona automaticamente Remote Desktop exceção no Firewall do Windows.

  3. Clique em Avançado …

112

 

  1. Coloque uma marca de seleção em Permitir que este computador seja controlado remotamente.
  • Clique em OK.
    Nota: Esta adiciona automaticamente Assistência Remota exceção no Firewall do Windows.

  • Remote Desktop Connection atrás de um router (computador único)

  • A) Configure o encaminhamento do router da porta para permitir conexões na porta 3389
    B) Agora, na RDC basta digitar o endereço IP fornecido pelo ISP

    1. Remote Desktop Connection atrás de um roteador computadores (Vários)

    A) Para cada computador que você deseja conectar remotamente você tem que configurar cada computador para ouvir portas diferentes para evitar conflitos de portas, alterando a chave de registo no
    HKEY_LOCAL_MACHINE \ System \ CurrentControlSet \ Control \ TerminalServer \ WinStations \ RDP-Tcp \ PortNumber

    114

    B) Port números são em formato decimal
    Nota: Para evitar conflitos com outros programas, sugere-se selecionar uma porta entre 49152 e 65535.

    C) Agora pegue o número que você escolheu o seu computador para escutar e configure seu roteador para a porta em frente a esse número

    D) Para se conectar ao computador o formato será agora ISPIPAddress: PortNumber (ex. 222.222.2.8:1234) para se conectar ao computador específico que por trás do router

    Importante: Se você tem um software de firewall funcionando, isso também tem que ser configurado para permitir a comunicação com a porta que abriu em seu roteador também.

    Nota: Os passos acima assume que você não é parte de um domínio

     

    GOSTOU SIGA O SITE

    Significado das Siglas

     ADSL Assimetric Digital Subscriber Line, tecnologia de acesso rápido que usa as linhas telefônicas oferecida em várias cidades. As velocidades variam em geral de 256 k a 2 mbps, dependendo do plano escolhido. A principal virtude é não usar o sistema telefônico comutado, dispensando o assinante de pagar pulsos, apenas a tarifa mensal.

    :. AGP Acelerated Graphics Port. Barramento de dados extremamente rápido usado pela placa de vídeo. Aparece como um slot marrom na placa mãe.

    :. APM Advanced Power Management. Sistema avançado de gerenciamento de energia que permite diminuir o consumo elétrico do computador. Útil sobretudo em micros portáteis.

    :. AT Advanced Tecnology, como era chamado o 286 lançado pela IBM em 84 (na época fazia sentido :-) Hoje é mais usado para se referir a gabinetes que não ainda não usam fonte ATX.

    :. ATX O padrão de design para as placas e gabinetes modernos, prevê medidas definidas para as placas mães, gabinetes e modificações na fonte de alimentação.

    :. ASP Active Server Pages, linguagem de programação para a Internet.

    :. BBS Bulletin Board Service. Os primeiros serviços online, bem antes da Internet. A conexão era feita via modem, na época ainda modelos de 1200 ou 2400 bips.

    :. BIOS Basic Input / Output System. A primeira camada de software do sistema, responsável por “dar a partida” no micro.

    :. CD Compact Disk.

    :. CISC Complex Instruction Set Computer. Computadores que executam diretamente um conjunto complexo de instruções, como o 486. Os processadores atuais incorporam um núcleo RISC (Reduced Instruction Set Computer), sendo chamados de híbridos.

    :. CMOS Complementary Metal Oxide Semiconductor. Um pequeno pedaço de memória volátil, alimentado por uma bateria, usado para gravar as configurações do Setup.

    :. CPU Central Processing Unit. Era mais usado na época dos mainframes, o termo mais atual é processador.

    :. DDR Double Data Rate. Um tipo de memória duas vezes mais rápido que as memórias SDRAM atuais, que vem ganhando popularidade.

    :. DIMM Double Inline Memory Mode. Os módulos de memória de 168 vias usados atualmente.

    :. DMA Direct Memory Access. É uma recurso da placa mãe que permite que os periféricos acessem diretamente a memória RAM, sem consumir poder de processamento do processador.

    :. DNS Domain Name Service. Transforma os endereços IP em nomes amigáveis, como http://www.guiadohardware.net, pode ser usado também em Intranets.

    :. DOS Disk Operating System. Pode ser usado em relação a qualquer sistema operacional, mas é normalmente usado em relação ao MS-DOS

    :. DVD Digital Versatile Disk, armazena muito mais dados que o CD-ROM, sendo atualmente usado para armazenar filmes.

    :. ECP Extended Capabilities Port é o padrão atual para a porta da Impressora, bem mais rápido que os padrões anteriores.

    :. EDO RAM Extended Data Output Dynamic Ramdom Access Memory, evolução das memórias FPM, usada principalmente em micros Pentium antigos.

    :. EPP Enhanced Parallel Port, padrão de porta paralela anterior ao ECP, tem a mesma velocidade, mas não suporta DMA.

    :. EULA End User License Agreement. O contrato que você aceita antes de instalar os programas, geralmente sem ler :-)

    :. FAQ Frequently Asked Questions. As perguntas mais comuns sobre algum tema. Para ler antes de perguntar. :-)

    :. FAT File Allocation Table. Num HD armazena a lista dos endereços ocupados por cada arquivo guardado, permitindo localiza-los.

    :. FDD Floppy Disk Drive. O infame drive de disquetes.

    :. FTP File Transfer Protocol. É um protocolo usado para transferir arquivos pela Internet.

    :. HDD Hard Disk Drive. A mesma coisa que disco rígido.

    :. HTML Hyper Text Markup Language. Uma linguagem de formatação de texto desenvolvida nos primórdios da Internet, mas padrão até hoje.

    :. HTTP Hyper Text Transfer Protocol. Foi desenvolvido originalmente para transferir páginas HTML, mas pode e é usado também para outros tipos de arquivo. As páginas WEB são acessadas usando-se este protocolo.

    :. IDE Integrated Device Electronics. Barramento de dados que serve para a conexão do disco rígido, CD-ROM e outros dispositivos.

    :. IRQ Interrupt Request Line. Funciona uma campainha que cada dispositivo pode usar quando quiser transferir dados ou instruções para o processador. Existem apenas 16 IRQs nos micros PC, dois dispositivos não podem usar o mesmo endereço.

    :. ISA Industry Standard Architeture, padrão de barramento desenvolvido para os micros 286, mas usado até hoje. Os slots pretos da placa mãe.

    :. ISDN Integrated Services Digital Network. Permite acessar a Internet a 128 K usando a linha telefônica. Disponível na maioria das cidades, mas pouco usado por causa das altas tarifas.

    :. LAN Local Área Network. Qualquer rede de micros que englobe um pequeno espaço, uma sala ou mesmo um prédio.

    :. LBA Logical Block Addressing. Um método de tradução que permite ao BIOS reconhecer HDs com mais de 528 MB. Suportado por todas as placas mães atuais.

    :. MAC Macintosh Computer. Desenvolvido pela Apple, foi em 84 o primeiro micro doméstico a usar interface gráfica e modem. A arquitetura continua evoluindo até hoje, sendo a principal concorrente dos micros PC.

    :. MBR Master Boot Record. A trilha zero do HD, onde ficam guardadas as informações sobre o(s) sistema(s) operacionais instalados.

    :. MP3 MPEG Layer 3. Padrão de compactação de áudio que permite que as músicas fiquem com 1/10 do tamanho original sem uma degradação muito grande da qualidade.

    :. NTFS NT File System. Sistema de arquivos usado pelo Windows NT e Windows 2000. Oferece vários recursos.

    :. OS Operational System

    :. PC Personal Computer. O primeiro PC foi lançado pela IBM em 81. Depois vieram os XTs, 286s, 386s até chegar nos dias de hoje.

    :. PCI Peripheral Component Interconnect. O padrão de barramento atual, usado pela maioria dos dispositivos. Os slots brancos da placa mãe.

    :. PnP Plug and Play. Também chamado jocosamente de “Plug and Pray” (encaixe e reze :-), a idéia era permitir que novos periféricos fossem automaticamente reconhecidos e instalados, sem esforço do usuário.

    :. RAM Ramdom Access Memory. Memória de acesso aleatório, é a memória mais usada não apenas em micros PCs, mas na maioria dos computadores. É barata, mas tem a desvantagem de ser volátil.

    :. RIMM Rambus Inline Memory Mode. Um padrão de memórias ultra rápido e ultra caro desenvolvido pela Rambus Inc. que a Intel insiste em tentar empurrar junto com seus processadores.

    :. RISC Reduced Instruction Set Computer. Computadores que são capazes de executar poucas instruções diferentes, sendo em compensação extremamente rápidos.

    :. ROM Read Only Memory. Existem vários tipos, usada para guardar dados que não precisarão ser alterados.

    :. SCSI Small Computer System Interface. Um padrão de barramento para a conexão de discos rígidos, CD-ROMs, scanners, impressoras e vários outros dispositivos. Desenvolvido originalmente pela Apple para uso nos MACs.

    :. SIMM Single Inline Memory Mode, os módulos de 72 vias usados até pouco tempo atrás.

    :. SVGA Super VGA, é geralmente usado com relação a monitores que suportam resoluções superiores a 640 x 480 e mais de 256 cores.

    :. TCP/IP Transmissão Control Protocol / Internet Protocol. Desenvolvido na década de 60 pelo departamento de defesa dos EUA, para ser usado na Arpanet, rede militar que foi o embrião da Internet atual. A principal virtude do TCP/IP é permitir que os outros computadores da rede continuem conectados mesmo caso um ou vários computadores caiam. No caso de uma guerra, o que sobrasse da rede continuaria funcionando.

    :. TSR Terminate and Stay Resident.

    :. USB Universal Serial Bus. Barramento plug-and-play relativamente lento (12 mbps) que pode ser usado por vários tipos de dispositivos. Todas as placas mãe atuais trazem pelo menos 2 portas USB. Cada porta pode ser compartilhada por vários dispositivos.

    :. VLB Vesa Logical Bus. Um padrão de barramento sucessor do ISA, mas anterior ao PCI, usado apenas em placas para 486. Criado pela Vesa, uma associação de fabricantes de placas de vídeo em 93.

    :. WAP Wireless Application Protocol, um protocolo de dados desenvolvido para uso em dispositivos sem fio, como celulares.

    :. WWW World Wide Web, ou Wait, Wait, Wait caso você use modem de 14.4 :-)

    :. ZAW Zero Administration for Windows. Uma coleção de utilitários produzidos pela Microsoft que visa diminuir o trabalho dos administradores de rede, permitindo atualizar programas das estações apartir de qualquer ponto da rede, por exemplo.

    GOSTOU DEIXE UM COMENTÁRIO

    componentes que formam um computador atual

    de alguma forma mística são guardadas e processadas informações. Mas, de misterioso os
    computadores não têm nada. Tudo funciona de maneira ordenada, e até certo ponto simples.
    Hoje em dia, quase todo mundo com condições para pagar um curso, ou ter um PC em casa,
    aprende muito rápido como usar o Windows ou mesmo o Linux, acessar a Internet, ou seja, usar o
    micro. Mas, dentre todos estes usuários, poucos, muito poucos realmente entendem como a
    máquina funciona. O que muda entre um processador Pentium ou um Athlon por exemplo? Por
    que um PC com pouca memória RAM fica lento? Como funciona um disco rígido, e como é possível
    armazenar uma quantidade tão grande de dados num dispositivo tão pequeno? O que fazem as
    placas de vídeo 3D e em que tarefas elas são necessárias? Qual é a diferença entre uma placa de
    som “genérica” e outra que custa mais de 100 dólares? Por que alguns modems são tão ruins?
    Como um PC funciona??
    O objetivo deste texto introdutório é lhe dar uma visão geral sobre os componentes que formam
    um computador atual e como tudo funciona. Você encontrará também várias dicas de compra,
    explicações sobre termos e convenções usadas, etc. O objetivo é servir como “o caminho das
    pedras” para quem está começando a estudar hardware, e precisa de um empurrãozinho inicial
    para poder estudar tópicos mais avançados.
    Como funciona o sistema binário?
    Existem duas maneiras de representar uma informação: analógicamente ou digitalmente. Uma
    música é gravada numa fita K-7 de forma analógica, codificada na forma de uma grande onda de
    sinais magnéticos, que pode assumir um número ilimitado de freqüências. Um som grave seria
    representado por um ponto mais baixo da onda, enquanto um ponto mais alto representaria um
    som agudo. O problema com esta representação, é que qualquer interferência causa distorções no
    som. Se os computadores trabalhassem com dados analógicos, certamente seriam muito passíveis
    de erros, pois qualquer interferência, por mínima que fosse, causaria alterações nos dados
    processados e consequentemente nos resultados.
    O sistema digital por sua vez, permite armazenar qualquer informação na forma de uma
    seqüência de valores positivos e negativos, ou seja, na forma de uns e zeros. O número 181 por
    exemplo, pode ser representado digitalmente como 10110101. Qualquer tipo de dado, seja um
    texto, uma imagem, um vídeo, um programa, ou qualquer outra coisa, será processado e
    armazenado na forma de uma grande seqüência de uns e zeros.
    É justamente o uso do sistema binário que torna os computadores confiáveis, pois a possibilidade
    de um valor 1 ser alterado para um valor 0, o oposto, é muito pequena. Lidando com apenas dois
    valores diferentes, a velocidade de processamento também torna-se maior, devido à simplicidade

    dos cálculos.
    Cada valor binário é chamado de “bit”, contração de “binary digit” ou “dígito binário”. Um conjunto
    de 8 bits forma um byte, e um conjunto de 1024 bytes forma um Kilobyte (ou Kbyte). O número
    1024 foi escolhido pois é a potência de 2 mais próxima de 1000. Um conjunto de 1024 Kbytes
    forma um Megabyte (1048576 bytes) e um conjunto de 1024 Megabytes forma um Gigabyte
    (1073741824 bytes). Os próximos múltiplos são o Terabyte (1024 Gibabytes) e o Petabyte (1024
    Terabytes)
    Também usamos os termos Kbit, Megabit e Gigabit, para representar conjuntos de 1024 bits.
    Como um byte corresponde a 8 bits, um Megabyte corresponde a 8 Megabits e assim por diante.
    1 Bit = 1 ou 0
    1 Byte = Um conjunto de 8 bits
    1 Kbyte = 1024 bytes ou 8192 bits
    1 Megabyte = 1024 Kbytes, 1.048.576 bytes ou 8.388.608 bits
    1 Gigabyte = 1024 Megabytes, 1.048.576 Kbytes, 1.073.741.824 bytes ou
    8.589.934.592 bits
    Quando vamos abreviar, também existe diferença. Quando estamos falando de Kbytes ou
    Megabytes, abreviamos respectivamente como KB e MB, sempre com o “B” maiúsculo. Quando
    estamos falando de Kbits ou Megabits abreviamos da mesma forma, porém usando o “B”
    minúsculo, “Kb”, “Mb” e assim por diante. Parece irrelevante, mas esta é uma fonte de muitas
    confusões. Sempre que nos referimos à velocidade de uma rede de computadores, por exemplo,
    não a medimos em bytes por segundo, e sim em bits por segundo: 10 megabits, 100 megabits e
    assim por diante. Escrever “100 MB” neste caso, daria a entender que a rede transmite a 100
    megabytes, que correspondem a 800 megabits.
    Como tudo funciona
    A arquitetura básica de qualquer computador completo, seja um PC, um Macintosh ou mesmo um
    computador de grande porte, é formada por apenas 5 componentes básicos: processador,
    memória RAM, disco rígido, dispositivos de entrada e saída e softwares.
    O processador é o cérebro do sistema, encarregado de processar todas as informações. Porém,
    apesar de toda sua sofisticação, o processador não pode fazer nada sozinho. Para termos um
    computador funcional, precisamos de mais alguns componentes de apoio: memória, unidades de
    disco, dispositivos de entrada e saída e finalmente, os programas a serem executados.
    A memória principal, ou memória RAM, é usada pelo processador para armazenar os dados que
    estão sendo processados, funcionando como uma espécie de mesa de trabalho. A quantidade de
    memória RAM disponível, determina quais atividades o processador poderá executar. Um
    engenheiro não pode desenhar a planta de um edifício sobre uma carteira de escola. Caso a
    quantidade de memória RAM disponível seja insuficiente, o computador não será capaz de rodar
    aplicativos mais complexos. O IBM PC original, lançado em 1981, por exemplo, possuía apenas 64
    Kbytes de memória e por isso era capaz de executar apenas programas muito simples, baseados
    em texto. Um PC atual possui bem mais memória: 64 MB, 128 MB ou mais, por isso é capaz de
    executar programas complexos.
    A memória RAM é capaz de responder às solicitações do processador numa velocidade muito alta.
    Seria perfeita se não fossem dois problemas: o alto preço e o fato de ser volátil, ou seja, de perder
    todos os dados gravados quando desligamos o micro.

    Já que a memória RAM serve apenas como um rascunho, usamos um outro tipo de memória para
    guardar arquivos e programas: a memória de massa. O principal dispositivo de memória de
    massa é o disco rígido, onde ficam guardados programas e dados enquanto não estão em uso ou
    quando o micro é desligado. Disquetes e CD-ROMs também são ilustres representantes desta
    categoria de memória.
    Para compreender a diferença entra a memória RAM e a memória de massa, você pode imaginar
    uma lousa e uma estante cheia de livros com vários problemas a serem resolvidos. Depois de ler
    nos livros (memória de massa) os problemas a serem resolvidos, o processador usaria a lousa (a
    memória RAM) para resolvê-los. Assim que um problema é resolvido, o resultado é anotado no
    livro, e a lousa é apagada para que um novo problema possa ser resolvido. Ambos os dispositivos
    são igualmente necessários.
    Os sistemas operacionais atuais, incluindo claro a família Windows, permitem ao processador usar
    o disco rígido para gravar dados caso a memória RAM se esgote, recurso chamado de memória
    virtual. Utilizando este recurso, mesmo que a memória RAM esteja completamente ocupada, o
    programa será executado, porém muito lentamente, devido à lentidão do disco rígido.
    Para permitir a comunicação entre o processador e os demais componentes do micro, assim como
    entre o micro e o usuário, temos os dispositivos de I/O “input/output” ou “entrada e saída”.
    Estes são os olhos, ouvidos e boca do processador, por onde ele recebe e transmite informações.
    Existem duas categorias de dispositivos de entrada e saída:
    A primeira é composta pelos dispositivos destinados a fazer a comunicação entre o usuário e o
    micro. Nesta categoria podemos enquadrar o teclado, mouse, microfone, etc. (para a entrada de
    dados), o monitor, impressoras, caixas de som, etc. (para a saída de dados).
    A segunda categoria é destinada a permitir a comunicação entre o processador e os demais
    componentes internos do micro, como a memória RAM e o disco rígido. Os dispositivos que fazem
    parte desta categoria estão dispostos basicamente na placa mãe, e incluem controladores de
    discos, controladores de memória, etc.
    Como toda máquina, um computador, por mais avançado que seja, é burro; pois não é capaz de
    raciocinar ou fazer nada sozinho. Ele precisa ser orientado a cada passo. É justamente aí que
    entram os programas, ou softwares, que orientam o funcionamento dos componentes físicos do
    micro, fazendo com que eles executem as mais variadas tarefas, de jogos à cálculos científicos.
    Os programas instalados, determinam o que o micro “saberá” fazer. Se você quer ser um
    engenheiro, primeiro precisará ir a faculdade e aprender a profissão. Com um micro não é tão
    diferente assim, porém o “aprendizado” é não é feito através de uma faculdade, mas sim através
    da instalação de um programa de engenharia, como o AutoCAD. Se você quer que o seu micro
    seja capaz de desenhar, basta “ensiná-lo” através da instalação um programa de desenho, como o
    Corel Draw! e assim por diante.
    Toda a parte física do micro: processadores, memória, discos rígidos, monitores, enfim, tudo que
    se pode tocar, é chamada de hardware, enquanto os programas e arquivos armazenados são
    chamados de software.
    Existem dois tipos de programas, chamados de software de alto nível, e software de baixo
    nível. Estas designações não indicam o grau de sofisticação dos programas, mas sim com o seu
    envolvimento com o Hardware.
    O processador não é capaz de entender nada além de linguagem de máquina, instruções
    relativamente simples, que ordenam a ele que execute operações matemáticas como soma e
    multiplicação, além de algumas outras tarefas, como leitura e escrita de dados, comparação, etc.

    Como é extremamente difícil e trabalhoso fazer com que o processador execute qualquer coisa
    escrevendo programas diretamente em linguagem de máquina, usamos pequenos programas,
    como o BIOS e os drivers de dispositivos do Windows para executar as tarefas mais básicas,
    funcionando como intermediários, ou intérpretes, entre os demais programas e o hardware. Estes
    programas são chamados de software de baixo nível. Todos os demais aplicativos, como
    processadores de texto, planilhas, jogos, etc. rodam sobre estes programas residentes, não
    precisando acessar diretamente ao hardware, sendo por isso chamados de softwares de alto nível.
    É justamente por causa desta divisão que muitas vezes um novo dispositivo, uma placa de som
    que acabou se ser “espetada” na placa mãe por exemplo, não funciona até que sejam instalados
    os drivers que vem no CD ou disquetes que acompanham a placa. O Windows é capaz de perceber
    a presença da nova placa, mas para usa-la, ele precisa do driver correto. O driver funciona como
    uma espécie de intérprete, que converte os comandos usados pelo Windows nos comandos
    entendidos pela placa e vice-versa.
    O próprio Windows possui uma grande biblioteca de drivers, que permite instalar
    automaticamente muita coisa, mas, muitos dispositivos, principalmente placas mais recentes,
    lançadas depois da versão do Windows que estiver usando, não funcionarão adequadamente até
    que sejam instalados os drivers corretos. Sem os drivers, é impossível fazer qualquer placa
    funcionar, é como perder a chave do carro. Felizmente, hoje em dia é possível encontrar drivers
    para praticamente qualquer tipo de placa, mesmo antiga, através dos sites dos fabricantes. Você
    também encontrará vários links na sessão de drivers

    Para instalar uma nova placa, o procedimento básico é sempre o mesmo. Depois de instalar
    fisicamente a placa e ligar o PC, o Windows exibirá uma aviso de “novo Hardware encontrado”,
    pedindo os drivers em seguida. Escolha a opção de procurar um driver para o dispositivo e mostre
    a localização dos arquivos, seja uma pasta no CD-ROM, uma pasta do HD, um disquete, etc. Caso
    tenha apontado os arquivos corretos, o Windows irá instala-los e o dispositivos passará a
    funcionar.
    Lembre-se que existem drivers específicos para cada sistema operacional. Se o modem tiver
    apenas drivers para Windows 98 por exemplo, ele não funcionará no Linux, DOS ou outros
    sistemas, a menos que o fabricante resolva disponibilizar novas versões do driver.
    Continuando a explicação sobre software, não podemos nos esquecer do próprio sistema
    operacional, que funciona como uma ponte entre o hardware e o usuário, automatizando o uso do
    computador, e oferecendo uma base sólida apartir da qual os programas podem ser executados.
    Continuando com os exemplos anteriores, o sistema operacional poderia ser definido como a
    “personalidade” do micro. Um micro rodando o Linux por exemplo, dificilmente seria tão amigável
    e fácil de operar quanto um outro micro rodando o Windows 98. Por outro lado, este último jamais
    seria tão estável quanto um terceiro micro rodando o Windows 2000. As diferenças não param por
    aí: Os programas desenvolvidos para rodar sobre um determinado sistema operacional quase
    sempre são incompatíveis com outros. Uma versão do Corel Draw! desenvolvida para rodar sobre
    o Windows 98, jamais rodaria sobre o Linux por exemplo, seria preciso reescrever todo o
    programa, criando uma nova versão.
    A interface dos vários sistemas operacionais também é diferente. No MS-DOS, por exemplo, temos
    apenas um prompt de comando baseado em texto, enquanto no Windows temos uma interface
    gráfica baseada em janelas.
    Esta divisão visa facilitar o trabalho dos programadores, que podem se concentrar em desenvolver
    aplicativos cada vez mais complexos, num espaço de tempo cada vez menor.
    Fazer um programinha simples de controle de caixa em uma linguagem de baixo nível, como o
    Assembler, por exemplo, tomaria pelo menos um dia inteiro de trabalho de um programador. Um

    programa com as mesmas funções, feito em uma linguagem visual (ou de alto nível) como o
    Visual Basic ou Delphi, tomaria bem menos tempo, e ainda por cima teria uma interface gráfica
    muito mais bonita e amigável, já que muitas das funções usadas no programa já estariam
    prontas.
    Arquiteturas
    Nos primórdios da informática, nas décadas de 50, 60 e 70, vários fabricantes diferentes
    disputavam o mercado. Cada um desenvolvia seus próprios computadores, que eram
    incompatíveis entre sí, tanto a nível de hardware, quanto a nível de software.
    Apesar de executarem as mesmas operações básicas, praticamente tudo era diferente: Os
    componentes de um não serviam em outro, os programas eram incompatíveis e, até mesmo as
    linguagens de programação, eram diferentes.
    Porém, com a popularização dos microcomputadores era inevitável uma padronização. No início da
    década de 80, tínhamos basicamente apenas duas arquiteturas, ou “famílias” de computadores
    pessoais diferentes: O PC, desenvolvido pela IBM, e o Macintosh, desenvolvido pela Apple.
    Como era mais barato, o PC tornou-se mais popular, ficando o uso dos Macintoshs restrito a
    nichos onde suas características peculiares o tornam mais atraente, como a edição de imagens ou
    sons e editoração eletrônica.
    Durante muito tempo, a própria Apple pareceu se conformar com a posição, lançando micros
    voltados principalmente para o seguimento profissional. Atualmente, vemos uma aceitação maior
    dos Macs, principalmente devido ao lançamento do iMac, mas os PCs ainda são a grande maioria.
    Como os micros PC possuem uma arquitetura aberta, ou seja, a possibilidade de vários fabricantes
    diferentes desenvolverem seus próprios componentes, baseados em padrões já definidos, temos
    uma lista enorme de componentes compatíveis entre sí. Podemos escolher entre várias marcas e
    modelos os componentes que melhor atendam nossas necessidades e montar nossa própria
    configuração, assim como podemos escolher os materiais que serão usados para construir uma
    casa. Também é possível melhorar posteriormente o micro montado através de upgrades,
    trocando alguns componentes para melhorar seu desempenho.
    Mesmo micros de grife, como os IBM, Compaq, Itautec, Dell, etc. também são micros montados,
    já que quase todos os seus componentes são comprados de outros fabricantes. Temos, por
    exemplo, um processador da Intel, um disco rígido da Quantum, uma placa mãe da Asus,
    memórias da Kingstone, CD-ROM e drive de disquetes da Mitsumi, um monitor da LG, e por aí vai
    :-) A diferença principal entre os micros montados e os micros de grife é que os últimos são
    montados por grandes empresas e temos todo o suporte e garantia. Porém, adquirindo um micro
    de grife, quase sempre pagamos mais caro e ao mesmo tempo não temos tanta liberdade para
    configurar o micro a gosto.
    Entretanto, o simples fato de comprar um micro de grife não é garantia de qualidade. Em geral
    eles possuem uma qualidade bem superior à dos micros montados por lojas de informática por
    exemplo. Porém, a necessidade de lançar micros de baixo custo, muitas vezes leva os grandes
    fabricantes a lançarem verdadeiras bombas no mercado, usando componentes de baixíssima
    qualidade. A lista é enorme, já tivemos casos de micros de grife que não traziam sequer memória
    cache L2 (na época em que este ainda fazia parte da placa mãe). Pesquisando por aí, você irá
    encontrar vários PCs de marcas conceituadas, usando placas PC-Chips, pouca memória RAM, etc.
    “economias” que aumentam o lucro do integrador, deixando a bomba na mão do infeliz que
    compra-los.

    Os Componentes
    Agora que você já entendeu o que se passa dentro do gabinete de um PC, que tal se
    estudássemos a função dos seus principais componentes?
    Você já deve estar familiarizado com a função do processador. Atualmente encontramos no
    mercado vários processadores diferentes. Em ordem de evolução, podemos citar o 486, o Pentium,
    o Pentium MMX, o K6, o K6-2, o Pentium II e o Celeron, o Pentium III, Duron e o Athlon.
    Definimos o processador como o cérebro do micro. Pois bem, todo o cérebro precisa de um corpo,
    que é justamente a placa mãe. Ela traz todos os componentes que permitem ao processador
    comunicar-se com os demais periféricos, como discos rígidos, placas de vídeo, etc. Outra função
    da placa mãe é acomodar e alimentar elétricamente o processador.
    Cada processador precisa de uma placa mãe desenvolvida especialmente para ele pois, devido à
    diferenças de arquitetura, os processadores possuem “necessidades” diferentes. Cada processador
    possui um número diferente de contatos, ou terminais, opera usando uma voltagem diferente e
    precisa de um conjunto de circuitos de apoio desenvolvidos especialmente para ele. O próprio
    encaixe do processador muda de família para família. Você jamais poderá instalar um Athlon
    numa placa mãe para Pentium III por exemplo.
    Apesar das diferenças, normalmente as placas mãe são desenvolvidas para serem compatíveis
    com mais de um processador. Uma placa mãe soquete 7 mais moderna, por exemplo, quase
    sempre suportará desde um Pentium de 75 MHz até um K6-2 de 550 MHz, passando por
    processadores Pentium MMX, K6 e Cyrix 6×86. Uma placa soquete 370 moderna por sua vez,
    suporta processadores Celeron e Pentium III. Placas soquete A são compatíveis com os
    processadores Athlon e Duron da AMD.
    Mas a importância da placa mãe não para por aí. Ela determina quais componentes poderão ser
    usados no micro (e consequentemente as possibilidades de upgrade) e influencia diretamente na
    performance geral do equipamento. Com certeza, você não gostaria de gastar 200 ou 300 dólares
    numa placa de vídeo de última geração, só para descobrir logo depois que não poderá instalá-la,
    pois a placa mãe do seu micro não possui um slot AGP.

    Para poder trabalhar, o processador precisa também de memória RAM, que é vendida na forma de
    pequenas placas, chamadas de módulos de memória, que são encaixadas na placa mãe. Você

    também ouvirá muito o termo “pente de memória” uma espécie de apelido, que surgiu por que os
    contatos metálicos dos módulos lembram um pouco os dentes de um pente.
    Todos os programas e arquivos são armazenados no disco rígido, também chamado de HD (Hard
    Disk) ou Winchester. A capacidade do disco rígido, medida em Gigabytes, determina a quantidade
    de arquivos e programas que será possível armazenar. O disco rígido também exerce uma grande
    influência sobre a performance global do equipamento. O disco rígido é acomodado no gabinete e
    ligado à placa mãe através de um cabo.

    Outro componente essencial é o gabinete, a caixa de metal que acomoda e protege os frágeis
    componentes internos do micro. O gabinete traz também a fonte de alimentação, responsável por
    converter a corrente alternada da tomada (AC) em corrente contínua (DC) usada pelos
    componentes eletrônicos. A fonte também serve para atenuar pequenas variações de tensão,
    protegendo o equipamento.
    A placa mãe, o processador, os módulos de memória e o disco rígido, são os quatro componentes
    básicos do micro. Porém, por enquanto temos um equipamento “autista”, incapaz de receber ou
    transmitir informações. Precisamos agora adicionar “sentidos” na forma de mais componentes. Os
    essenciais são a placa de vídeo, que permite que o micro possa gerar imagens a serem mostradas
    no monitor, teclado e mouse, que permitem ao usuário operar o micro.
    Outros componentes permitem ampliar os recursos do micro, mas podem ser definidos como
    opcionais, já que o computador pode funcionar sem eles:
    O CD-ROM permite que o micro leia CDs com jogos ou programas. Caso o micro possua também
    uma placa de som, você poderá ouvir também CDs de música. Existem também os drives de DVD,
    que além de lerem CDs normais, lêem DVDs de programas ou filmes.
    A placa de som permite que o micro gere sons, tocados por um par de caixas acústicas. A placa de
    som também traz entrada para um microfone e para um joystick. Junto com um drive de CD-ROM,
    a placa de som forma o chamado Kit multimídia.
    O Fax-Modem permite a comunicação entre dois computadores usando um linha telefônica. Ele
    permite a recepção e transmissão de faxes e o acesso à Internet. Hoje em dia, o Fax-Modem é um
    componente praticamente obrigatório; afinal, um micro que não pode ser conectado à Internet
    tem uma utilidade muito limitada.

    Temos também o drive de disquetes, que apesar de ser um componente de baixa tecnologia,
    ainda é necessário, pois os disquetes ainda são muito usados para transportar dados.
    Além destes, temos uma gama enorme de acessórios: Impressoras, Scanners (que permitem
    digitalizar imagens), câmeras fotográficas digitais (que ao invés de usarem negativos geram
    imagens digitais), câmeras de vídeo conferência, placas de captura de vídeo e muitos outros.
    Desktops, Notebooks, Handhelds e Palmtops
    Durante a década de 70, os computadores eram classificados como computadores, minicomputadores
    ou micro-computadores, de acordo com seu tamanho. Naquela época, “minicomputador”
    era qualquer coisa do tamanho de um armário e os grandes computadores ocupavam
    facilmente uma sala inteira.
    Atualmente, os termos da moda são outros. Os computadores de mesa são chamados de
    desktops. Os notebooks possuem os mesmos recursos dos micros de mesa, porém são mais
    leves e consomem menos energia, visando aumentar a autonomia das baterias. Comparados com
    os desktops, a vantagem dos notebooks é sua portabilidade e as desvantagens são os fatos de
    serem mais caros, mais frágeis e menos confortáveis de usar. Os primeiros computadores
    portáteis, lançados no início da década de 80 pesavam em média 12 quilos, enquanto os atuais
    não costumam pesar mais do que 3 Kg. Para quem precisa de portabilidade, mas ao mesmo
    tempo não abre mão de um micro com todos os recursos de um micro de mesa, os notebooks são
    a solução mais acertada.

    Porém, para quem precisa apenas de recursos mais básicos, como processamento de textos,
    planilhas, agenda eletrônica ou apenas armazenar informações, os notebooks acabam sendo uma
    solução cara e antiquada. Além do peso, temos uma autonomia relativamente baixa das baterias,
    em geral 2 ou 3 horas, sem falar no tempo gasto para dar o boot e carregar o Windows toda vez
    que o equipamento é ligado.
    Apartir dos anos 90, tivemos a popularização de mais duas classes de computadores portáteis, os
    handhelds e os palmtops. A idéia principal é criar aparelhos pequenos o suficiente para levar no

    bolso, que sejam leves e consumam pouca energia, mas, ao mesmo tempo, capazes de executar
    todas as funções básicas, como processamento de textos, planilhas, coleta de dados, acesso à
    Internet, jogos, etc.
    Os dois tipos de aparelho possuem conceitos bem diferentes. Os handhelds são uma espécie de
    notebook em miniatura, com o mesmo desenho básico, com o teclado de um lado e a tela do
    outro. Exemplos de handhelds são o Cassiopéia, HP 620, Psion Series 5 e Sharp HC-4600. Com
    exceção do Psion, estes aparelhos utilizam o Windows CE, que é uma versão simplificada do
    Windows 98, que apesar de não rodar os mesmos programas que temos nos micros de mesa,
    possui versões compactas do Word, Excel e Power Point, além de permitir a instalação de
    programas ou jogos desenvolvidos para ele.

    Os palmtops por sua vez, são ainda mais compactos e não possuem teclado. O texto é ou digitado
    sobre um teclado gráfico formado em parte da tela, ou então escrito à mão em um espaço
    reservado. O exemplo mais famoso e bem sucedido de palmtop é o Palm Pilot da 3com, que utiliza
    o PalmOS, um sistema operacional proprietário. O sucesso do Palm Pilot estimulou os
    desenvolvedores a criar milhares de programas para ele, englobando praticamente todo o tipo de
    aplicações, de cálculos científicos a jogos. Estima-se que em Dezembro de 2001 já existissem
    mais de 75.000 programas, uma boa parte aplicativos freeware.
    A Microsoft concorre com os Palms através do Pocket PC, uma versão reduzida do Windows que
    roda em PCs de mesa. Em versões anteriores, este sistema era chamado de Windows CE. O nome
    mudou apenas por questões de marketing.
    Os Palmtops com o Pocket PC quase sempre trazem telas coloridas, processadores Arm de até 220
    MHz, de 16 a 64 MB de memória, suporte a MP3, etc. configurações bem superiores às dos Palms
    que trazem 2 ou 8 MB de memória, processadores DragonBall de 32 MHz e telas monocromáticas
    na maioria dos modelos. Por outro lado, o Pocket PC também é um sistema muito mais pesado, o
    que nivela o desempenho das duas classes.
    Em todos os casos, é possível fazer a conexão com um micro de mesa para fazer backup das
    informações gravadas, trocar arquivos e instalar novos programas.

    aumenta. Os componentes são cada vez mais miniaturizados, o que traz como conseqüência um
    ganho essencial no ramo dos portáteis: um consumo elétrico cada vez mais baixo.
    Um 486 de 100 MHz processa 100 milhões de instruções por segundo e consome
    aproximadamente 5 Watts de eletricidade. Um Mobile Pentium III de 500 MHz (a versão especial,
    com um consumo elétrico ultra baixo) processa 1.5 bilhão de instruções, com apenas 3 watts. A
    mesma proporção se mantém nos chips destinados a aparelhos portáteis.
    Isto significa que os aparelhos portáteis são capazes de executar cada vez mais funções e rodar
    aplicativos cada vez mais complexos. E esta é uma tendência que veio pra ficar.
    Recentemente a Microsoft lançou uma versão do Windows destinada especialmente a micros de
    mão e outros tipos de sistemas integrados, o Windows XP Embedded. O Linux pode ser facilmente
    portado para várias arquiteturas e é o concorrente natural para o Windows também neste campo.
    A diferença de recursos entre os PCs de mesa e um handheld está diminuindo rápido, embora a
    diferença de preço também. Das agendas eletrônicas de 50 reais, saltamos para os iPaqs de 1500
    reais.
    Escolhendo a melhor configuração
    Todos os componentes de um PC, influenciam diretamente no desempenho global da máquina.
    Como num carro, onde um único componente de baixo desempenho afeta negativamente todo o
    conjunto.
    Apesar do desejo de todos ser um micro equipado com um processador topo de linha, muita
    memória RAM, vários Gigabytes de espaço no disco rígido, placa de vídeo 3D, DVD, etc. Nem
    todos estamos dispostos a gastar 2.000 ou 3.000 dólares numa configuração assim. Entra em
    cena então o fator custo-beneficio: determinar qual configuração seria melhor dentro do que se
    pode gastar. O objetivo deste trecho é justamente este, ajudá-lo a escolher a melhor configuração
    em termos de custo-beneficio em cada caso. Para isto, estudaremos no que cada componente
    afeta o desempenho e em quais aplicações cada um é mais importante.
    A primeira coisa que deve ser levada em conta é a aplicação a que o micro será destinado, ou
    seja: quais programas serão utilizados nele.
    Um PC usado em um escritório, onde são usados o Word, Excel e Internet por exemplo, não
    precisa de um processador muito poderoso, mas é indispensável uma quantidade pelo menos
    razoável de memória RAM, e um disco rígido razoavelmente rápido. Enquanto que, num micro
    destinado a jogos, o principal seria um processador rápido, combinado com uma boa placa de
    vídeo 3D.
    Escolhendo a placa mãe
    A placa mãe é o componente que deve ser escolhido com mais cuidado. Uma placa mãe de baixa
    qualidade colocará em risco tanto o desempenho quanto a confiabilidade do equipamento.
    Ao comprar uma placa mãe, verifique quais processadores ela suporta, se possui um slot AGP e se
    a quantidade de slots ISA e PCI é suficiente para a quantidade de periféricos que você pretende
    instalar.

    A questão mais importante é a qualidade da placa. Além dos recursos, este é o principal
    diferencial entre as várias que você encontrará no mercado. Placas de baixa qualidade além de
    prejudicarem o desempenho, podem tornar o micro instável, causando travamentos constantes no
    Windows. Travamentos que freqüentemente são causados por falhas de hardware, e não por bugs
    do programa.
    Procure comprar placas de boas marcas, como Asus, Abit, Soyo e Supermicro. As placas da Intel
    também são excelentes, mas preste atenção se a placa realmente foi fabricada pela Intel: muitos
    vendedores vendem placas com chipsets Intel como “placas da Intel”. Muitos fabricantes usam
    chipsets Intel em suas placas, mas isto não e garantia de qualidade. Não adianta uma placa de
    segunda linha possuir um bom chipset.
    Evite ao máximo comprar placas TX-Pro, VX-Pro, BX-Pro, SX-Pro, PC-100, Viagra, PC-Chips e
    placas que não trazem especificado o nome do fabricante. Apesar de serem muito mais baratas, e
    quase sempre trazerem placas de som, vídeo, modems e até placas de rede onboard, estas placas
    invariavelmente são de baixa qualidade, fabricadas geralmente pela PC-Chips, especializada em
    fabricar placas de baixíssimo custo mas de qualidade duvidosa.
    Você pode perguntar por que estas placas são inferiores, já que muitas vezes usam o mesmo
    chipset de placas de boas marcas. O diferencial é a qualidade da placa de circuito. Uma placa mãe
    é confeccionada usando-se uma técnica chamada MPCB (multiple layer contact board) que
    consiste em várias placas empilhadas como se fossem uma só. Acontece que uma placa de
    circuitos deste tipo tem que ser projetada e fabricada minuciosamente, pois qualquer erro mínimo
    na posição das trilhas, fará com que surjam interferências, que tornarão a placa instável. Isto
    também prejudica o desempenho, impedindo que a comunicação entre os componentes seja feita
    na velocidade normal. A diferença de desempenho de um micro montado com uma boa placa mãe,
    para outro de configuração parecida, mas usando uma placa mãe de baixa qualidade pode chegar
    a 20%. Equivaleria a trocar um Pentium II 800 por outro de 600 MHz!
    A fim de cortar custos, diminui-se o tempo de desenvolvimento e se apela para técnicas mais
    baratas e menos precisas de produção, criando os problemas que descrevi.
    Certamente é tentador ver o anúncio de uma placa mãe que já vem com placa de som, placa de
    vídeo e modem por 100 ou 120 dólares, enquanto uma placa de uma boa marca custa 150, 180
    ou mesmo 200 dólares e muitas vezes não traz nenhum destes acessórios. Mas, lembre-se que
    esta economia pode lhe trazer muita dor de cabeça, na forma de instabilidade, travamentos e
    incompatibilidades. Estas placas podem até ser usadas em micros mais baratos, destinados a
    aplicações leves, onde a economia é mais importante, mas não pense em usar uma em um micro
    mais parrudo, pois não valerá à pena. Se o problema é dinheiro, prefira comprar um processador
    mais simples e barato, mas colocá-lo em uma boa placa mãe.
    Escolhendo os outros periféricos
    Existem basicamente 4 determinantes de desempenho num micro: o processador, a quantidade de
    memória RAM, a velocidade do disco rígido e a placa de vídeo. A importância de cada um varia de
    acordo com a aplicação do micro.
    Memória RAM
    Se o micro possui pouca memória RAM, o processador terá que usar o disco rígido para guardar os

    dados que deveriam ser armazenados na memória, tornando o sistema extremamente lento. Por
    outro lado, instalar mais memória do que o necessário será apenas um desperdício, pois não
    tornará o sistema mais rápido.
    Você notará que é preciso instalar mais memória quando o micro começar a ficar lento e a acessar
    intermitentemente o disco rígido em momentos de atividade mais intensa.
    Se o usuário trabalha apenas com aplicativos mais leves, como Word, Excel, Internet e não
    costuma abrir mais de um aplicativo ao mesmo tempo, 64 MB podem ser suficientes, apesar de
    128 ser o ideal.
    Se, por outro lado, são usados programas mais pesados ou se são abertos vários programas ao
    mesmo tempo, então o mínimo seria 128 e o ideal 256 MB. 128 MB também são suficientes se o
    micro se destina principalmente a jogos.
    Caso o micro se destine ao processamento de imagens, vídeo ou editoração, então devem ser
    usados pelo menos 192 MB. Dependendo do tamanho dos arquivos a serem processados, o ideal
    pode subir para 256 ou mesmo 512 MB.
    Hoje em dia os módulos de memória SDRAM (os usados na maioria dos PCs atuais) estão muito
    baratos, por isso não vale mais à pena economizar em memória RAM. Mesmo que o PC se destine
    a aplicativos leves, instale logo 256 ou mesmo 512 MB. É melhor pecar pelo excesso do que pela
    falta.
    Com mais memória o PC se manterá rápido por mais tempo. Não se esqueça que os programas
    ficarão cada vez mais pesados com o passar do tempo. O que hoje pode até ser um desperdício,
    amanhã será requisito mínimo para muitos sistemas.
    A instalação de mais memória pode dar um novo ânimo a um micro mais antigo, principalmente
    se o micro possui apenas 8 ou 16 MB. Mas não exagere, pois mesmo com muita memória será
    difícil rodar aplicativos mais pesados devido à fragilidade do conjunto. O ideal seriam 16 megas
    em micros 486 e de 32 a 64 MB em micros Pentium ou K6 de 100 a 166 MHz.
    Processador
    Nem sempre a instalação de um processador mais moderno torna o micro mais rápido. Muitas
    vezes, aumentar a quantidade de memória ou trocar o disco rígido faz mais efeito. Como sempre,
    depende da aplicação.
    Caso o micro se destine principalmente a jogos, então vale à pena investir em um processador
    topo de linha, como um Athlon ou um Pentium 4. Caso o micro de destine ao processamento de
    imagens ou editoração, um processador topo de linha irá ajudar, mas apenas se o micro possuir
    bastante memória RAM. Se o dinheiro estiver curto, é preferível comprar um processador médio,
    como um Duron e investir em mais memória.
    Finalmente, caso o micro se destine a aplicações leves, então o ideal será adquirir um processador
    mais simples e investir a economia em um pouco mais de memória, um disco rígido melhor, ou
    numa placa mãe de melhor qualidade.
    Disco Rígido

    O desempenho do disco rígido determina a velocidade em que serão abertos programas e
    arquivos. Um disco rígido rápido, também ajuda caso o micro tenha pouca memória. Mesmo com
    um processador parrudo e muita memória, tudo ficará lento caso o disco rígido não acompanhe.
    Quase sempre, os discos rígidos de maior capacidade são mais rápidos, mas como sempre existem
    exceções. Procure saber o tempo de acesso, a velocidade de rotação e a densidade do disco.
    O tempo de acesso do disco varia geralmente entre 8 e 12 milessegundos, dependendo do HD. O
    tempo de acesso determina quanto tempo a cabeça de leitura demorará para achar o dado a ser
    lido. Um valor mais baixo corresponde a um melhor desempenho.
    A velocidade de rotação é medida em RPMs, ou rotações por minuto. Quanto mais rápido o disco
    girar, mais rápido um dado será encontrado. A densidade, ou quantos dados caberão em cada
    disco também determina o desempenho, pois como os dados estarão mais próximos, serão
    localizados mais rapidamente. Você saberá a densidade dividindo a capacidade total do disco
    rígido pela quantidade de cabeças de leitura que ele possui (pois o disco possuirá um platter para
    cada cabeça de leitura). Um disco de 6 GB, com 4 cabeças de leitura, por exemplo, possui
    densidade de 1,5 GB por disco. Quanto maior a densidade melhor.
    Placa de Vídeo
    Como vimos, existem tanto placas de vídeo 2D, quanto placas de vídeo 3D. Caso o micro se
    destine a jogos, ou processamento de imagens 3D (usando o 3D Studio por exemplo), é
    indispensável o uso de uma placa de vídeo 3D, caso contrário o micro simplesmente não será
    capaz de rodar o aplicativo ou ficará extremamente lento.
    Se forem ser usados apenas aplicativos de escritório ou forem ser processadas imagens em 2D,
    então uma placa de vídeo 3D não será necessária.
    Existem tanto aceleradoras 3D, que devem ser usadas em conjunto com uma placa 2D comum
    (Monster 1 e Monster 2 por exemplo), quanto placas Combo (as mais comuns), que desempenham
    tanto as funções 3D quanto 2D (todas as placas atuais). Atualmente até mesmo as placas de
    vídeo onboard estão vindo com recursos 3D, apesar do desempenho não se comparar com uma
    placa mais parruda.
    Modem
    Atualmente, você só encontrará à venda modems de 56K, porém, encontrará tanto hardmodems
    quanto softmodems. Os softmodems são os modems mais baratos, que costumam custar entre 20
    e 40 dólares, porém tornam o micro mais lento (quanto mais potente for o processador menor
    será a perda) e não se dão muito bem como jogos multiplayer jogados via modem ou com linhas
    ruidosas. Os hardmodems, por sua vez, são os modems mais caros, que custam apartir de 80
    dólares, mas executam eles mesmos todas as funções.
    Placa de Som
    A placa de som não influencia em nada o desempenho do micro, apenas determina a qualidade do
    áudio. Para uso normal, uma placa de som simples como uma Sound Blaster 32, ou mesmo uma

    daquelas placas “genéricas”, geralmente equipadas com chipsets Yamaha, dão conta do recado.
    Placas mais caras farão diferença caso você pretenda trabalhar com edição musical, ou faça
    questão de ouvir músicas em MIDI com o máximo de qualidade.
    Existem também placas de som 3D, como a Turtle Beath Montego e a Sound Blaster Live, que
    geram sons que parecem vir de todas as direções, mesmo usando caixas acústicas comuns. Este
    efeito é muito interessante em jogos, pois oferece uma sensação de realidade muito maior.
    Imagine ouvir o som de um tiro como se ele tivesse sido disparado por alguém que está bem atrás
    de você.
    Upgrades e atualizações
    Fazer um upgrade, significa trocar alguns componentes de um micro já ultrapassado a fim de
    melhorar seu desempenho. Porém, muitas vezes, o micro está tão desatualizado que seria preciso
    trocar quase todos os componentes para conseguir atingir um desempenho aceitável. Neste caso,
    compensaria mais vender o micro antigo e comprar um novo.
    O segredo para realizar um bom upgrade, é detectar os “pontos fracos” da configuração,
    componentes que possuem um desempenho muito inferior ao restante do conjunto. Para
    exemplificar, analisarei agora algumas configurações:
    Configuração 1:
    Processador Pentium de 100 MHz
    8 MB de memória RAM
    HD de 1.2 GB
    Placa de Vídeo de 1 MB
    Monitor SVGA de 14 polegadas
    Temos aqui um micro bem antigo, de configuração extremamente modesta, mas que tem um
    grave ponto fraco: a pouca quantidade de memória RAM. O ideal aqui seria adicionar mais 32 MB
    de memória, totalizando 40 MB, o que multiplicaria a velocidade do equipamento.
    Também valeria à pena trocar o processador por um K6 ou Pentium de 200 MHz, já que neste
    caso não precisaríamos trocar também a placa mãe.
    Dois pentes de memória de 72 vias de 16 MB cada, e um processador de 200 MHz custam cerca
    de 150 reais, que resultariam em um ganho de performance de pelo menos 300%. Note que neste
    caso precisaríamos usar componentes usados. O disco rígido só deveria ser trocado caso o usuário
    estivesse com problemas de espaço.
    Configuração 2:
    Pentium 233 MMX
    32 MB de memória RAM
    HD de 2.6 GB
    Placa de vídeo de 2 MB
    Monitor SVGA de 14 polegadas
    Agora temos uma configuração equilibrada. As únicas mudanças viáveis seriam o aumento da
    quantidade de memória para 64 MB ou a troca do disco rígido (caso o usuário esteja com
    problemas de espaço).

    Não seria uma boa idéia pensar em trocar o processador, pois para instalar um Pentium II,
    Celeron, ou mesmo um K6-2 neste micro, teríamos que trocar também a placa mãe. Caso os
    módulos de memória atuais sejam de 72 vias, o gasto seria ainda maior, já que as placas mãe
    mais modernas possuem encaixes apenas para módulos de 168 vias o que nos obrigaria a trocar
    também as memórias.
    Caso o usuário do micro goste de jogos, ou pretenda trabalhar com imagens tridimensionais,
    então uma placa de vídeo 3D, de um modelo mais simples, seria uma boa idéia.
    Configuração 3:
    Pentium II de 266 MHz
    64 MB de memória RAM
    HD de 2.2 GB
    Placa de vídeo de 2 MB
    Monitor SVGA de 15 polegadas
    A primeira coisa a considerar neste exemplo seria a troca do processador por um Celeron de 500
    ou 533 MHz, já que poderíamos trocar apenas o processador. Teríamos então um excelente
    configuração, com exceção do disco rígido, muito pequeno e lento para um micro deste porte.
    Seria uma boa idéia trocá-lo por um de 13 GB ou mais. Se fosse adicionada também uma placa de
    vídeo 3D passaríamos então a ter praticamente um topo de linha. O aumento da quantidade de
    memória para 128 MB deveria ser considerado caso o usuário tenha o hábito de trabalhar com
    vários programas abertos ao mesmo tempo, ou tenha o hábito de abrir arquivos muito grandes.
    As peças antigas, no caso o processador o disco rígido e a placa de vídeo poderiam ser vendidas
    depois para cobrir parte do gasto do upgrade. Existe um mercado muito grande para discos rígidos
    usados.
    O melhor custo-beneficio
    Simplesmente comprar o melhor micro que o dinheiro pode pagar, não é uma tarefa muito difícil,
    basta comprar os melhores e em geral mais caros componentes, encher de memória RAM e voilà.
    Porém, a não ser você seja algum milionário excêntrico, esta provavelmente não será uma boa
    idéia. Você já deve ter percebido que no mundo da informática as coisas evoluem muito rápido. A
    cada semana, novos componentes são lançados. Mas, prestando um pouco de atenção na ciranda
    dos preços, você vai perceber duas coisas:
    1- Em geral os fabricantes lançam novos componentes com pequenos avanços sobre os
    anteriores, porém com um grande aumento de preço. No ramo dos processadores por exemplo, os
    novos modelos são sempre apenas 33 ou 50 MHz mais rápidos que os anteriores. Na família
    Pentium III, por exemplo, tivemos em menos de um ano, lançadas versões de 450, 500, 533, 550,
    600, 650, 667, 700, 733, 750, 800 e 1000 MHz. Sempre que uma nova versão é lançada, as
    anteriores caem de preço, e as muito antigas são retiradas do mercado. A diferença de preço entre
    a versão topo de linha e a anterior, que é em geral apenas 5 ou 6% mais lenta, pode chegar a
    quase 50%, e a diferença entre a versão mas rápida e a versão mais lenta encontrada à venda
    (que em geral tem um desempenho apenas 35 ou 50% menor) pode ser de mais de 10 vezes! Por
    exemplo, logo que o Pentium III de 1 GHz foi lançado, custava nos EUA, quase 1.000 dólares. Na
    mesma época, as mesmas lojas (nos EUA), vendiam um Celeron de 500 MHz por cerca de apenas
    50 dólares! No Brasil os preços claro são um pouco mais altos, mas a proporção é a mesma.

    Em outras áreas, como no ramo de placas de vídeo 3D, a diferença não é tão gritante assim, mas
    as placas topo de linha em geral custam 2 vezes mais do que as versões anteriores, sendo em
    geral 25 ou 30% mais rápidas. No caso da memória RAM, não existe uma grande evolução em
    termos de velocidade, porém muitas vezes é preciso trocar os módulos de memória ao atualizar
    um sistema antigo, caso o sistema antigo utilize memórias de 72 vias por exemplo. No caso do
    HD, o fator mais importante é a capacidade, mas o desempenho também é fundamental. Muitas
    vezes um HD menor é muito mais rápido do que um de maior capacidade. No capítulo sobre HDs
    você encontrará uma tabela comparativa entre os principais HDs à venda.
    2- Nos últimos anos, os equipamentos evoluíram muito mas rapidamente do que os requisitos dos
    programas. Ao contrário do que tínhamos a alguns anos atrás, um micro de dois anos atrás,
    completamente ultrapassado pelos padrões atuais, pode rodar com desenvoltura quase todos os
    aplicativos mais atuais. A menos que você trabalhe em uma área muito crítica em termos de
    desempenho, como edição de vídeo por exemplo, muitas vezes você sequer notará muita
    diferença entre o desempenho de um micro topo de linha e um equipamento um pouco mais
    antigo, desde claro, que ambos estejam corretamente configurados.
    Atualmente, temos apenas dois tipos de aplicativos que realmente utilizam todo o poder de
    processamento de um micro topo de linha: aplicativos profissionais de renderização de imagens e
    edição de vídeo e os jogos mais atuais. Isso não significa que estes aplicativos não rodem ou
    fiquem muito lentos em um micro um pouco ultrapassado, mas que ficam mais rápidos, ou com
    mais detalhes (no caso dos jogos) num micro topo de linha. Se vale à penas gastar duas vezes
    mais num micro topo de linha para ter apenas um pouco mais de desempenho aí já é com você,
    mas na minha opinião realmente não vale à pena, a menos que você realmente trabalhe com este
    tipo de aplicativo, o que é raro.
    Em aplicações mais leves, como processamento de textos, acesso à Internet, jogos um pouco mais
    antigos (lançados a mais de 18 meses) e mesmo programas gráficos (com exceção apenas de
    filtros e operações mais demoradas) a diferença para o usuário é mínima. Não se iluda muito com
    os resultados mostrados nos benchmarks; qual seria a diferença, para você, se uma imagem
    demorasse 2.5 segundos ao invés de apenas 1.5 segundos para ser aberta no Photoshop, ou se o
    Word demorasse 0.5 segundo ao invés de apenas 0.35 segundo para abrir uma nova janela? Para
    alguém que trabalha editando imagens e aplicado filtros e efeitos que muitas vezes demoram
    horas para serem processados, talvez um ganho de 10 ou 15% de desempenho resultasse em um
    grande ganho de produtividade, mas será que este é o seu caso?
    Além de saber escolher os componentes com relação à qualidade, preocupe-se em se perguntar
    “será que realmente vou precisar de tudo isso” quando for comprar um novo micro. Claro que não
    vale à pena comprar um equipamento muito ultrapassado, mas também não vale à pena comprar
    um topo de linha. O ponto ideal para você está em algum lugar destes dois extremos.
    Benchmarks, medindo sem erros
    Existem vários programas dedicados a medir a performance de um componente isolado, o HD por
    exemplo, ou o desempenho do micro como um todo, neste caso simulando o trabalho de
    programas do dia a dia.
    Porém, é muito fácil forjar resultados, fazendo parecer que um produto é muito melhor do que o

    do concorrente, mesmo sem distorcer os resultados obtidos pelo programa.
    Em geral, um determinado componente, um processador por exemplo, mesmo que no geral seja
    um pouco mais lento do que o do concorrente, sempre se sairá melhor do que ele em algumas
    aplicações. Se for criado um programa de benchmark que privilegie estas operações que são
    executadas mais rápido, temos o milagre de fazer um equipamento inferior parecer mais rápido.
    No mundo capitalista, este tipo de estratégia, de divulgar as vantagens de um produto, ao mesmo
    tempo que se esconde seus defeitos, é muito usada em todos os setores, não apenas no mundo da
    informática. Por isso que em geral não se deve dar tanta atenção aos benchmarks divulgados
    pelos próprios fabricantes. Muitos são honestos ao apresentar os resultados, mas outros não;
    sempre nos deixando com o pé atras.
    Mesmo em se tratando de testes feitos por pessoas bem intencionadas, sem nenhum tipo de
    vínculo com os fabricantes, muitas vezes temos resultados errados, simplesmente por serem
    usados programas de benchmark inadequados ou ultrapassados. Por exemplo, rodando o Norton
    System Info para DOS, que é um benchmark bem antigo, em um Pentium de 200 MHz e em um
    Pentium Pro também de 200 MHz, os resultados obtidos mostrarão o Pentium comum mais de
    duas vezes mais rápido do que o Pentium Pro, quando na prática o Pentium Pro é muito mais
    rápido. Usando o Wintune 97 em um Pentium MMX de 233 MHz e em um K6, também de 233
    MHz, teremos resultados mostrando o K6 quase 50% mais rápido, quando na realidade os dois
    processadores praticamente empatam. Estes são apenas dois exemplos de uma lista enorme.
    Existem programas que realmente conseguem mostrar resultados bastante precisos. A Ziff Davis
    por exemplo, desenvolve excelentes programas de bachmark para várias situações; para medir o
    desempenho dentro de aplicativos de escritório, para medir o desempenho em gráficos 3D, etc.
    Estes são os programas adotados nos testes da PC Magazine Americana, entre outras publicações.
    Os programas da Ziff Davis podem ser encontrados em http://www.ziffdavis.com
    Existem outros casos de bons programas claro, como por exemplo o BAPCo SYSMark,
    SPECviewperf 6.1.1 entre outros.
    A fim de medir corretamente a performance, é preciso executar testes relativamente demorados.
    Esta é a principal diferença entre bons programas de benchmark e outros que mostram erros
    gritantes, justamente o tempo do teste. Enquanto no Business Winstone da Ziff Davis, o teste
    pode durar várias horas, no Wintune o teste dura poucos segundos. Em 99% dos casos, estes
    testes rápidos são imprecisos.
    Outro diferencial são as próprias configurações utilizadas para executar os testes. Para medir o
    ganho de desempenho obtido na troca de um processador por outro ou de uma placa de vídeo por
    outra, é preciso manter todos os demais componentes, drivers, mesma versão do sistema
    operacional etc. mudando apenas o componente a ser testado. Caso contrário, outros
    componentes contaminarão os resultados, tornando o teste impreciso. A simples troca do driver da
    placa de vídeo entre os testes pode fazer um equipamento aparecer muito mais rápido ou lento
    que o outro.
    Naturalmente, é necessária também uma boa dose de bom senso e de conhecimento do quanto
    cada componente utilizado influencia na performance de cada aplicativo. Por exemplo, certa vez vi
    um teste feito por um site estrangeiro, que media a performance de vários processadores,
    aplicando um filtro do Adobe Photoshop, chamado Gaussian Blur. Os resultados mostravam um
    mero Celeron 450 quase 15% mais rápido do que um Pentium III de 600 MHz. Lógico que alguma
    coisa tinha saído errado no teste. Vendo as configurações, foi fácil perceber que as máquinas
    utilizadas no teste tinhas apenas 64 MB de memória RAM, enquanto o filtro utilizava arquivos de
    imagem grandes, de 100 MB cada um. Como os micros não tinham memória suficiente, eram
    obrigados a utilizar memória virtual para armazenar parte dos arquivos de imagem, fazendo com
    que o desempenho do disco rígido contaminasse os resultados. No teste, o Celeron havia sido

    equipado com um disco rígido mais rápido, heis o erro de configuração.
    Moral da história: não acredite em todos os números que ver por aí. Lembre-se dos comerciais de
    sabão em pó; nem sempre um produto é tão melhor que outro quanto parece; tudo depende das
    condições onde os testes são realizados.
    Tão importante quanto o programa de benchmark escolhido, são os conhecimentos da pessoa que
    executar o teste, que deve ser capaz de escolher uma configuração ideal, eliminando qualquer
    fator que possa contaminar os resultados.
    Linguagens de programação
    Os computadores são funcionários quase perfeitos. Fazem tudo o que mandamos, não reclamam,
    não se importam de trabalhar até tarde da noite, não cobram hora extra nem tiram férias. Mas,
    em compensação também não pensam. Para que façam qualquer coisa é preciso explicar tudo
    com os mínimos detalhes e na língua deles.
    Considerando que tudo o que os computadores conseguem entender são seqüências intermináveis
    de números binários, fornecer estas “instruções” pode ser muito penoso para um ser humano.
    Você consegue se imaginar lendo um manual de 5.000 páginas e decorando um a um centenas de
    códigos binários que representam as instruções do processador?
    Colocando a mão na massa
    Mesmo com transístores de 0.13 mícron, mais de 30 milhões de transístores num único
    processador e freqüências de operação acima de 1 GHz, os computadores ainda são
    completamente incapazes de tomar sozinhos qualquer tipo de decisão, precisam ser orientados a
    cada passo, afinal, são apenas máquinas.
    Para conseguir que nossas máquinas burras possam fazer todas as coisas produtivas que vemos, é
    preciso orientá-las através de softwares, que por sua vez são construídos usando alguma
    linguagem de programação.
    Um processador manipula apenas dados binários. Tantos os dados a serem acessados, quanto
    cada uma das instruções que o processador é capaz de executar possuem um endereço binário
    próprio. Se os programadores precisassem programar diretamente em binários, decorando
    seqüências como 10111011101101101110110011001010 para cada instrução do processador e
    para cada endereço de memória a ser acessado, provavelmente não teríamos mais
    programadores… já estariam todos loucos :-)
    Para facilitar as coisas, começaram a ser desenvolvidas as linguagens de programação, que
    diferem na sintaxe e recursos, mas tem um ponto em comum, que é a existência de um
    compilador. Seja programando em C, ou seja em Visual Basic, você usará um editor para escrever
    seu programa, respeitando as regras da linguagem escolhida e em seguida rodará o programa
    compilador, que interpretará os comandos que inclui no programa e os transformará em binários,
    as instruções que são entendidas pelo processador. A vantagem é que você poderá trabalhar com
    instruções como if, else, etc. além de todas as facilidades oferecidas pela linguagem ao invés de
    gigantescos endereços binários. Sem dúvida muito mais simples.
    Existem diversas linguagens de programação, meu objetivo é dar algumas noções básicas sobre
    as peculiaridades e utilidade de cada uma:

    Assembly
    O Assembly foi provavelmente a primeira linguagem de programação da história, surgida na
    década de 50, época em que os computadores ainda usavam válvulas. A idéia do assembly é usar
    um comando em substituição a cada instrução de máquina.
    No assembly, cada uma destas instruções, equivale a uma instrução do processador. Ao invés de
    usar instruções como 10101011 você pode usar outras bem mais fáceis de entender e de
    memorizar, como add, div, mul, and, or, not, etc. Você também pode criar variáveis, que são
    pequenos espaços na memória RAM reservados para guardar algum tipo de dado, que o programa
    precisará mais tarde. Você pode usar aquelas instruções que citei para lidar com elas. Por
    exemplo, a instrução “add” faz com que o processador some duas variáveis; “add x, y” por
    exemplo, soma os valores de x e y.
    Apesar de ser exaustivamente trabalhoso, você pode perfeitamente desenvolver pequenos
    programas em assembly, para isso só vai precisar de um compilador e bastante paciência para
    aprender. Você pode baixar um gratuíto em http://www.web-sites.co.uk/nasm/ nesta mesma
    página você vai encontrar alguns manuais que podem ajudar bastante.
    O compilador transforma o código escrito em assembly em linguagem de máquina, que finalmente
    poderá ser entendida pelo processador.
    Existem também os decompiladores, que fazem o trabalho inverso, de transformar um programa
    já compilado, em um código em linguagem assembly. Este recurso é chamado de engenharia
    reversa. É assim que conseguem crackear programas, quebrar códigos de proteção (como o do
    DVD), etc. Claro que para isso, é preciso alguém que conheça muito de assembly e que tenha
    disposição para ficar estudando o código até encontrar o que procura.
    Por causa desta característica de permitir trabalhar diretamente com as instruções do processador,
    o assembly é chamado de linguagem de baixo nível. Existem também linguagens de alto nível,
    como C++ ou Pascal, onde é possível usar várias funções já prontas ou mesmo linguagens visuais,
    como o Visual Basic ou o Delphi, que são ainda mais fácies.
    Como o compilador utiliza instruções específicas para o processador da máquina, é preciso
    desenvolver uma versão diferente da linguagem para cada sistema onde se desejar usa-la.
    Fortran
    O Fortran foi uma das primeiras linguagens de alto nível da história. Enquanto o Assembly é
    chamado de linguagem de baixo nível, por nele utilizarmos diretamente as instruções e endereços
    do processador e memória, numa linguagem de alto nível temos várias funções prontas, o que
    facilita muito a programação, mas em compensação torna em muitos casos o programa maior e
    mais pesado, já que o compilador jamais conseguirá gerar um código tão otimizado quanto um
    programador experiente conseguiria.
    Fortran é a contração de “Formula Translator”. A primeira versão do Fortran foi criada no final da
    década de 50, mas a linguagem começou a ser usada em larga escala apartir da metade da
    década de 60, quando surgiram várias versões diferentes. Atualmente o Fortran é pouco usado.

    Pascal
    O Pascal é outra linguagem de alto nível, criada durante a década de 60. O Pascal é uma
    linguagem bastante estruturada, com regras bastante rígidas, o que a torna difícil de usar. Apesar
    de ter sido bastante usada até a década de 80, hoje em dia ela é usada apenas em alguns cursos
    como ferramenta de aprendizado.
    Cobol
    Cobol significa “Common Business Oriented Language”. Esta linguagem foi desenvolvida no final
    da década de 50, com o objetivo de ser uma plataforma de desenvolvimento para aplicações
    bancárias e financeiras em geral. Comparado com o Pascal e o Assembly, comuns na época, o
    Cobol é uma linguagem bastante amigável, o que garantiu uma grande aceitação. Até hoje esta
    linguagem é usada em muitos sistemas bancários, o que explica a grande procura por
    programadores experientes nesta linguagem na época do bug do ano 2000.
    C
    O C foi desenvolvido durante a década de 70, mas ainda é largamente utilizado. A grande
    vantagem do C é permitir escrever tanto programas extremamente otimizados para a máquina,
    como seria possível apenas em assembly, e ao mesmo tempo vir com várias funções prontas,
    como uma linguagem de alto nível, que podem ser utilizadas quando não for necessário gerar um
    código tão otimizado.
    Esta flexibilidade, permitiu que o C fosse usado para desenvolver a maioria dos sistemas
    operacionais, como o Unix, Linux e o próprio Windows. Usando o compilador adequado, o C pode
    ser usado para desenvolver programas para várias plataformas diferentes.
    C++
    O C++ mantém os recursos do C original, mas traz muitos recursos novos, como recursos
    orientados a objetos, sendo também bem mais fácil de utilizar. O C++ é bastante usado
    atualmente para desenvolver muitos programas para várias plataformas.
    Você pode baixar um compilador C/C++ gratuíto em http://www.delorie.com/djgpp/
    O Linux conta com um grande número de ferramentas para desenvolvimento em C, como o EMacs,
    o compilador GCC e até editores visuais, como o KDeveloper. Outro ponto forte é a fartura de
    programas de código aberto, que representam uma fonte de aprendizado quase inesgotável. O
    Linux é provavelmente o melhor lugar para aprender a programar em C.
    Visual Basic
    Por ser uma linguagem visual, o VB é extremamente fácil de usar, janelas, botões e muitas
    funções já vem prontas, bastando ao programador usa-las em seus programas. O custo da

    praticidade é o fato dos programas serem bem mais pesados do que equivalentes feitos em outras
    linguagens, como em C e de rodarem apenas dentro do Windows
    Delphi
    O Delphi também é uma linguagem visual, baseada no Pascal. Hoje em dia, o Delphi divide com o
    visual Basic a preferência da maioria dos programadores.
    Apesar de também ter algumas deficiências, a opinião das maioria dos programadores é que de
    uma forma geral, os programas escritos em Delphi são mais rápidos do que os desenvolvidos em
    Visual Basic.
    O Delphi possui uma versão for Linux, o Kylix, também desenvolvido pela Borland e gratuíto para
    o desenvolvimento de softwares cobertos pela GNU. Os programas para Delphi 6 e Kylix rodam
    nas duas plataformas, bastando que o código seja recompilado. O código desenvolvido em versões
    anteriores precisa ser adaptado para rodar no Linux.
    Naturalmente, além destas que citei, existem inúmeras outras linguagens, cada uma com seus
    pontos fracos e fortes e determinada área onde é mais usada.
    Redes
    As redes são um campo cada vez mais importante ultimamente. Basta lembrar que a Internet, tão
    essencial hoje em dia, nada mais é do que uma rede de computadores.
    Existem várias arquiteturas de rede e novas são criadas a cada dia, mas felizmente, a tendência é
    que sempre um único ou alguns poucos padrões sobrevivam em cada área.
    O padrão Ethernet por exemplo se tornou quase onipresente nas redes cabeadas. Isso trouxe algo
    muito positivo, que foi a facilidade em montar redes. Como todas as placas são compatíveis e os
    cabos são padronizado, é muito fácil encontrar os componentes e o preço caiu muito.
    Temos três padrões de redes Ethernet: de 10 megabits, 100 megabits e 1 gigabit. As placas são
    intercompatíveis, mas ao combinar placas de velocidades diferentes, a rede passa a operar na
    velocidade da placa mais lenta, a menos que você invista num switch, que é capaz de isolar as
    transmissões, permitindo que cada placa opere na sua velocidade, sem prejudicar as demais.
    Mas, afinal, o que é um switch?
    Um switch é uma espécie de irmão mais velho do hub, os dois tem a mesma função, ou seja,
    servir como um ponto central para a rede. Todas as placas de rede são ligadas ao hub ou switch e
    é possível ligar vários hubs ou switchs entre sí caso necessário.
    A diferença é que o hub apenas retransmite tudo o que recebe para todas as estações. Isto
    significa que apenas uma pode falar de cada vez e que todas precisam operar na mesma
    velocidade (sempre nivelada por baixo). Isto funciona bem em pequenas redes, mas confirme o
    número de PCs aumenta, o desempenho diminui rapidamente.
    Surgem então os switchs, aparelhos mais inteligentes, que são capazes de estabelecer ligações
    apenas entre o emissor e o destinatário da transmissão. Isso permite que várias transmissões
    sejam feitas ao mesmo tempo (entre PCs diferentes naturalmente) e cada placa pode operar na

    sua velocidade máxima. Usando switch o desempenho da rede se mantém com um número muito
    maior de estações.
    Os hubs são atualmente muito baratos, entre 60 e 200 reais, mas o switchs podem ser muito mais
    caros, chegando facilmente aos 500 reais.
    Finalmente, temos os roteadores, que são o topo da cadeia evolutiva. Os roteadores são ainda
    mais inteligentes, pois são capazes de interligar várias redes diferentes e sempre escolher a rota
    mais rápida para cada pacote de dados. Os roteadores podem ser desde um PCs comuns, com
    duas ou mais placas de rede até supercomputadores capazes de gerenciar milhares de links de
    alta velocidade. Os roteadores formam a espinha dorsal da Internet.
    Finalmente, temos as redes sem fio, que estão em rápida ascensão, lideradas pelas placas
    802.11b.
    Isso mesmo, “802.11b”. esqueceram de inventar um nome mais familiar para o padrão, mas
    enfim, o que importa é o que ele faz, não é mesmo? :-)
    Os transmissores 802.11b são bastante compactos, a ponto de caberem num cartão PC-Card, que
    pode ser instalado em qualquer notebook. Existem ainda placas para micros de mesa, assim como
    adaptadores, que permitem usar os cartões em micros de mesa.
    Ao invés do Hub temos o ponto de acesso, que é capaz de centralizar as transmissões de dados de
    algumas dezenas de estações.

    A velocidade é de 11 megabit, um pouco mais que as redes Ethernet de 10 megabits e o alcance
    varia entre 15 e 100 metros, dependendo dos obstáculos. A grandes distâncias o sinal se degrada
    e a velocidade de transmissão diminui, até o sinal se perder completamente.
    Além dos notebooks, as interfaces 802.11b podem ser usadas em alguns handhelds e tem tudo
    para se tornarem cada vez mais populares.
    Os pontos de acesso quase sempre podem ser conectados a uma rede Ethernet já existente,
    unificando as duas redes. Isto permite que num escritório você possa ligar os desktops usando
    uma rede Ethernet convencional, que é mais rápida e mais barata e usar a rede sem fio apenas
    para os notebooks.

    Além dos componentes físicos da rede serem quase sempre intercompatíveis, os sistemas
    operacionais atualmente também são.
    Com um pouco de conhecimento de causa, você não terá maiores problemas para interligar um PC
    rodando Windows, outro rodando Linux e um Macintosh na mesma rede, trocar arquivos e
    compartilhar a conexão com a Internet entre eles.
    Alguns termos que você precisa ter em mente:
    TCP/IP – É o principal protocolo de rede, usado na Internet e na grande mairia das rede locais. O
    protocolo é justamente a língua universal que permitem que vários sistemas diferentes possam
    conversar.
    ICS – É o programa, presente no Windows 98 SE, Windows ME, Windows 2000 e Windows XP que
    permite compartilhar a conexão com a Internet. Os clientes podem rodar Linux, Mac OS ou vários
    outros sistemas, pois tudo é feito via TCP/IP, que é universal.
    Samba – Este é o software que permite compartilhar arquivos entre máquinas Linux e Windows.
    Roda no Linux.
    Compartilhamento – Seja no Windows ou no Linux, tudo que for ser acessado por outros micros
    da rede é chamado de compartilhamento. Você pode compartilhar arquivos (pastas, ou até mesmo
    o HD inteiro), CD-ROM, Impressora, etc. Da até para usar o PC remotamente, através do VNC.

    Hoje em dia, quando ouvimos falar em processadores de 1 GHz dá até sono, de tão comuns que
    eles já se tornaram. Pouca gente já ouviu falar no 8088, que foi o processador usado no PC XT, a
    quase 20 anos atrás, e muito menos no Intel 4004, o primeiro microprocessador, lançado em 71.
    Nas próximas páginas falarei sobre os processadores e computadores que fizeram parte da
    história, começando não apartir da década de 70 ou 80, mas no século XIX. Sim, na época dos
    nossos bisavós os computadores já existiam, apesar de extremamente rudimentares. Eram os
    computadores mecânicos, que realizavam cálculos através de um sistema de engrenagens,
    acionado por uma manivela ou outro sistema mecânico qualquer. Este tipo de sistema, comum na
    forma de caixas registradoras era bastante utilizado naquela época.
    No final do século XIX surgiu o relê, um dispositivo eletromecânico, formado por um magneto
    móvel, que se deslocava unindo dois contatos metálicos. O Relê foi muito usado no sistema
    telefônico, aliás algumas centrais analógicas ainda utilizam estes dispositivos até hoje. Os relês
    podem ser considerados uma espécie de antepassados dos transístores. Suas limitações eram o
    fato de serem relativamente caros, grandes demais e ao mesmo tempo muito lentos: um relê
    demora mais de um milésimo de segundo para fechar um circuito.
    Também no final do século XIX, surgiram as primeiras válvulas. As válvulas foram usadas para
    criar os primeiros computadores eletrônicos, na década de 40.
    As válvulas tem seu funcionamento baseado no fluxo de elétrons no vácuo. Tudo começou numa
    certa tarde quando Thomas Edison, inventor da lâmpada elétrica estava brincando com a sua
    invenção. Ele percebeu que ao ligar a lâmpada ao polo positivo de uma bateria e uma placa
    metálica ao polo negativo, era possível medir uma certa corrente fluindo do filamento da lâmpada
    à chapa metálica, mesmo que os dois estivessem isolados. Havia sido descoberto o efeito
    termoiônico, o princípio de funcionamento das válvulas.
    As válvulas já eram bem mais rápidas que os relês, atingiam frequências de alguns Megahertz, o
    problema é que esquentavam demais, consumiam muita eletricidade e se queimavam com
    facilidade. Era fácil usar válvulas em rádios, que usavam poucas, mas construir um computador,
    que usava milhares delas era extremamente complicado, e caro.
    Apesar de tudo isso, os primeiros computadores começaram a surgir durante a década de 40,
    naturalmente com propósitos militares. Os principais usos eram a codificação e decodificação de
    mensagens e cálculos de artilharia.
    Sem dúvida, o computador mais famoso daquela época foi o ENIAC (Electronic Numerical
    Integrator Analyzer and Computer), construído em 1945. O ENIAC era composto por nada menos
    do que 17,468 válvulas, ocupando um galpão imenso. Porém, apesar do tamanho, o poder de
    processamento do ENIAC é ridículo para os padrões atuais, suficiente para processar apenas 5.000
    adições, 357 multiplicações e 38 divisões por segundo, bem menos até do que uma calculadora de

    bolso atual, das mais simples.
    A idéia era construir um computador para realizar vários tipos de cálculos de artilharia para ajudar
    as tropas aliadas durante a segunda Guerra mundial. Porém, o ENIAC acabou sendo terminado
    exatos 3 meses depois do final da Guerra e acabou sendo usado durante a guerra fria,
    contribuindo por exemplo no projeto da bomba de Hidrogênio.

    Se você acha que programar em C ou em Assembly é complicado, imagine como era a vida dos
    programadores daquela época. A programação do ENIAC era feita através de 6.000 chaves
    manuais. A cada novo cálculo, era preciso reprogramar várias destas chaves. Isso sem falar no
    resultado, que era dado de forma binária através de um conjunto de luzes. Não é à toa que a
    maior parte dos programadores da época eram mulheres, só mesmo elas para ter a paciência
    necessária para programar e reprogramar esse emaranhado de chaves várias vezes ao dia.

    Vendo essa foto é fácil imaginar por que as válvulas eram tão problemáticas e caras: elas eram
    simplesmente complexas demais.
    Mesmo assim, na época a maior parte da indústria continuou trabalhando no aperfeiçoamento das
    válvulas, obtendo modelos menores e mais confiáveis. Porém, vários pesquisadores, começaram a
    procurar alternativas menos problemáticas.
    Várias destas pesquisas tinha como objetivo a pesquisa de novos materiais, tanto condutores,
    quanto isolantes. Os pesquisadores começaram então a descobrir que alguns materiais não se
    enquadravam nem em um grupo nem no outro, pois de acordo com a circunstância, podiam atuar
    tanto quando isolantes quanto como condutores, formando uma espécie de grupo intermediário
    que foi logo apelidado de grupo dos semicondutores.
    Haviam encontrado a chave para desenvolver o transístor. O primeiro projeto surgiu em 16 de
    Dezembro de 47, onde era usado um pequeno bloco de germânio (que na época era junto com o
    silício o semicondutor mais pesquisado) e três filamentos de ouro. Um filamento era o polo
    positivo, o outro o polo negativo, enquanto o terceiro tinha a função de controle. Tendo apenas
    uma carga elétrica no polo positivo, nada acontecia, o germânio atuava como um isolante,
    bloqueando a corrente. Porém, quando uma certa tensão elétrica era aplicada usando o filamento
    de controle, uma fenômeno acontecia e a carga elétrica passava a fluir para o polo negativo.

    CONTINUA NA APOSTILA…………..

    Descubra como inicializar o Windows 8.1

    Descubra como inicializar o Windows 8.1 em modo de segurança
    Quando você enfrenta problemas com o seu computador, como conflitos de certos drivers ou até malwares poderosos, a única maneira de conseguir o seu computador de volta é fazendo uma restauração de sistema pelo modo de segurança, uma artimanha não muito fácil de se utilizar no Windows 8.1, diferentemente de seus antecessores.
    Relacionado

    1

    Para inicializar em modo de segurança, você terá que acessar o Gerenciador de Inicialização, que pode ser encontrado de duas formas, pressionando a combinação Shift+F8 enquanto o seu computador inicia normalmente em um exato espaço de tempo, ou então acessando as configurações da sua máquina, que será a forma como mostraremos neste tutorial.

    Primeiramente você deve posicionar o seu mouse no canto superior direito da tela do Windows, fazendo com que apareça a barra lateral de opções, onde você clicará em “Configurações“.

    Em seguida, clique em “Mudar configurações do computador“.

    2

    Escolha a opção “Atualização e recuperação“.

    Na opção “Recuperação“, clique sobre o botão “Reiniciar agora“. A partir desse momento o seu computador irá reinicializar, no entanto, com as opções de segurança do Windows 8.1 em primeiro plano.

    3

    Clique sobre a opção “Solução de Problemas“.

    4

    Clique sobre “Opções avançadas“.

    5

    Clique sobre “Configurações de Inicialização“. Se você quiser utilizar o Prompt de Comando para realizar alguma tarefa por ele, é só clicar na segunda opção listada, no entanto, recomendamos essa opção somente para usuários avançados.

    6

    Clique no botão “Reiniciar” para que o computador novamente reinicialize, no entanto, com as opções de inicialização de segurança à disposição.

    7

    Aproveite e leia isto:

    Agora é só escolher o que você quer fazer. Por exemplo, se você quiser inicializar no modo de segurança com rede, pressione a tecla 5 de seu teclado.

    8

    E aí, conseguimos ajudar você? Caso ainda exista alguma dúvida, deixe o seu comentário abaixo!

    Em seguida, clique em “Mudar configurações do computador“.

    9Escolha a opção “Atualização e recuperação“.

    10

    Na opção “Recuperação“, clique sobre o botão “Reiniciar agora“. A partir desse momento o seu computador irá reinicializar, no entanto, com as opções de segurança do Windows 8.1 em primeiro plano.

    11

    Clique sobre a opção “Solução de Problemas“.

    12

    Clique sobre “Opções avançadas“.

    14

    Veja também:

    Clique sobre “Configurações de Inicialização“. Se você quiser utilizar o Prompt de Comando para realizar alguma tarefa por ele, é só clicar na segunda opção listada, no entanto, recomendamos essa opção somente para usuários avançados.

    15

    Clique no botão “Reiniciar” para que o computador novamente reinicialize, no entanto, com as opções de inicialização de segurança à disposição.

    16

    Aproveite e leia isto:

    Agora é só escolher o que você quer fazer. Por exemplo, se você quiser inicializar no modo de segurança com rede, pressione a tecla 5 de seu teclado.

    17

    E aí, consegui ajudar você? Caso ainda exista alguma dúvida, deixe o seu comentário abaixo!.

    GOSTOU DEIXE UM COMENTÁRIO