navegando na web

37
N N A A V V E E G G A A N N D D O O N N A A W W E E B B

Upload: pietra-giovanna

Post on 28-Mar-2016

231 views

Category:

Documents


2 download

DESCRIPTION

Este livro é destinado á quem se interessa pelo assunto internet. Desde sua ideia, criação e tempos atuais.

TRANSCRIPT

Page 1: Navegando na web

NNNAAAVVVEEEGGGAAANNNDDDOOO

NNNAAA WWWEEEBBB

Page 2: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

2

NNNAAAVVVEEEGGGAAANNNDDDOOO

NNNAAA WWWEEEBBB

Conhecendo e Aprendendo

Cedaspy

Profº Ricardo

Pietra Giovanna de Almeida

Turma: 3606a

Page 3: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

3

Índice

Introdução ..................................................................................................................................... 4

Capítulo I ....................................................................................................................................... 5

Capítulo II ...................................................................................................................................... 8

Capítulo III ................................................................................................................................... 12

Capítulo IV ................................................................................................................................... 15

Capítulo V .................................................................................................................................... 18

Capítulo VI ................................................................................................................................... 20

Capítulo VII .................................................................................................................................. 22

Capítulo VIII ................................................................................................................................. 24

Capítulo IX ................................................................................................................................... 26

Bibliografia .................................................................................................................................. 37

Page 4: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

4

Introdução

Internet é a rede mundial de computadores interconectados. É o sistema de informação

global que: a) é logicamente ligado por um endereço único global baseado no Internet

Protocol (IP) ou suas subsequentes extensões; b) é capaz de suportar comunicações

usando o Transmission Control Protocol/Internet Protocol (TCP/IP) ou suas

subsequentes extensões e/ou outros protocolos compatíveis ao IP; e c) provê, usa ou

torna acessível, tanto publicamente como privadamente, serviços de mais alto nível

produzidos na infraestrutura descrita.

Neste pequeno livro, você irá conhecer tudo sobre este mundo virtual. Desde sua origem

até os dias atuais.

Escrito de forma simples, objetiva e de fácil entendimento. È uma maneira muito

interessante de estar atualizado sobre o assunto Internet!

Page 5: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

5

Capítulo I

Os primeiros registros de interações sociais que poderiam ser realizadas através de redes

foi uma série de memorandos escritos por J.C.R. Licklider, do MIT - Massachussets

Institute of Technology, em agosto de 1962, discutindo o conceito da "Rede Galáxica".

Ele previa vários computadores interconectados globalmente, pelo meio dos quais todos

poderiam acessar dados e programas de qualquer local rapidamente. Em essência, o

conceito foi muito parecido com a Internet de hoje. Licklider foi o primeiro gerente do

programa de pesquisa de computador do DARPA, começando em outubro de 1962.

Enquanto trabalhando neste projeto, ele convenceu seus sucessores Ivan Sutherland, Bob

Taylor e Lawrence G. Roberts da importância do conceito de redes computadorizadas.

Leonard Kleinrock, do MIT, publicou o primeiro trabalho sobre a teoria de trocas de

pacotes em julho de 1961 e o primeiro livro sobre o assunto em 1964. Kleinrock

convenceu Roberts da possibilidade teórica das comunicações usando pacotes ao invés de

circuitos, o que representou um grande passo para tornar possíveis as redes de

computadores. O outro grande passo foi fazer os computadores se conversarem. Em

1965, Roberts e Thomas Merrill conectaram um computador TX-2 em Massachussets

com um Q-32 na Califórnia com uma linha discada de baixa velocidade, criando assim o

primeiro computador de rede do mundo. O resultado deste experimento foi a

comprovação de que computadores poderiam trabalhar bem juntos, rodando programas e

recuperando dados quando necessário em máquinas remotas, mas que o circuito do

sistema telefônico era totalmente inadequado para o intento. Foi confirmada assim a

convicção de Kleinrock sobre a necessidade de trocas de pacotes.

No final de 1966, Roberts começou a trabalhar no DARPA para desenvolver o conceito

das redes computadorizadas e elaborou o seu plano para a ARPANET, publicado em

1967. Na conferência onde ele apresentou este trabalho, houve também uma

apresentação sobre o conceito de redes de pacotes desenvolvido pelos ingleses Donald

Davies e Roger Scantlebury, da NPL-Nuclear Physics Laboratory. Scantlebury conversou

com Roberts sobre o trabalho da NPL e do trabalho de Paul Baran e outros em RAND.

O grupo do projeto RAND tinha escrito um trabalho sobre o papel das redes de trocas

de pacotes para voz segura quando serviam militarmente em 1964. O que se percebeu

então é que os trabalhos desenvolvidos no MIT (1961-67), RAND (1962-65) e NPL

(1964-67) estavam se desenrolando em paralelo sem que nenhum dos pesquisadores

soubesse dos outros trabalhos. A palavra "pacote" foi adotada do trabalho desenvolvido

no NPL e a velocidade de linha proposta para ser usada no projeto da ARPANET foi

upgraded de 2,4 Kb para 50 Kb.

Page 6: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

6

Em agosto de 1968, depois de Roberts e o grupo do DARPA terem refinado a estrutura

e especificações para a ARPANET, uma seleção foi feita para o desenvolvimento de um

dos componentes-chave do projeto: o processador de interface das mensagens (IMP). Um

grupo dirigido por Frank Heart (Bolt Beranek) e Newman (BBN) foi selecionado.

Paralelamente ao trabalho do grupo da BBN nos IMPs com Bob Kahn assumindo um

papel vital do desenho arquitetônico da ARPANET, a topologia e economia da rede foi

desenvolvida e otimizada por Roberts em conjunto com Howard Frank e seu grupo da

Network Analysis Corporation, e sistema de mensuração da rede foi preparado pelo

pessoal de Kleinrock na UCLA -University of California at Los Angeles.

Devido à teoria de trocas de pacotes de Kleinrock e seu foco em análise, desenho e

mensuração, seu Centro de Mensuração de Rede da UCLA foi escolhido para ser o

primeiro nó (ponta) da ARPANET. Isso aconteceu em setembro de 1969, quando BBN

instalou o primeiro IMP na UCLA e o primeiro servidor de computador foi conectado. O

projeto chamado Aumento do Intelecto Humano, de Doug Engelbart, que incluía NLS

(um precursor dos sistemas de hipertexto), no SRI-Stanford Research Institute, foi o

segundo nó ou ponta. SRI passou a manter as tabelas de "Host Name" para o

mapeamento dos endereços e diretório do RFC. Um mês depois, quando SRI foi

conectado à ARPANET, a primeira mensagem entre servidores foi enviada do laboratório

de Kleinrock para o SRI. Dois outros "nodes" foram acrescentados então: a UC Santa

Barbara e a Universidade de Utah. Este dois nós incorporavam projetos de aplicações

visuais, com Glen Culler e Burton Fried na UCSB investigando métodos de uso de funções

matemáticas para restaurar visualizações na rede e Robert Taylor e Ivan Sutherland em

Utah investigando métodos de representação em terceira dimensão na rede. Assim, no

final de 1969, quatro servidores estavam conectados na ARPANET e, mesmo naquela

época, os trabalhos se concentravam tanto na rede em si como no estudo das possíveis

aplicações da rede. Esta tradição continua até hoje.

Computadores foram rapidamente adicionados à ARPANET nos anos seguintes e os

grupos de trabalho desenvolveram um protocolo servidor a servidor funcionalmente

completo e outros softwares de rede. Em dezembro de 1971, o Network Working Group

(NWG) gerenciado por S. Crocker, concluiu o primeiro protocolo servidor a servidor da

ARPANET, chamado Network Control Protocol (NCP). De 1971 a 1972, os usuários da

rede finalmente puderam começar a desenvolver as suas aplicações. Em outubro de 1972,

Kahn organizou uma grande e bem sucedida demonstração sobre a ARPANET na

Conferência Internacional de Comunicação entre Computadores (ICCC). Esta foi a

primeira demonstração pública da nova tecnologia de rede para o público. Foi também em

1972 que o correio eletrônico, considerado a primeira aplicação "hot", foi introduzido.

Em março de 1972, Ray Tomlinson, da BBN, escreveu o software básico de e-mail com

as funções de "send/enviar" e "read/ler", motivado pela necessidade dos desenvolvedores

da ARPANET de ter um fácil mecanismo de coordenação. Em julho, Roberts expandiu a

Page 7: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

7

utilidade do e-mail escrevendo o primeiro programa utilitário de e-mail para listar, ler

seletivamente, arquivar, encaminhar e responder a mensagens. Dali, o correio eletrônico

se tornou a maior aplicação de rede por mais de uma década. Este foi o prenúncio do

tipo de atividade que vemos hoje na WWW hoje, ou seja, o enorme crescimento de todos

os tipos de aplicações e utilitários agregados pessoa-a-pessoa.

Page 8: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

8

Capítulo II

A ARPANET original cresceu e se tornou a Internet. A Internet foi baseada na idéia de

que haveria múltiplas redes independentes de desenho arbitrário, começando com a

ARPANET como rede pioneira de trocas de pacotes, mas logo incluindo redes de

satélites, de rádio, etc. A Internet como conhecemos hoje incorpora uma idéia-chave:

rede de arquitetura aberta. Nesta abordagem, a opção pela tecnologia de qualquer rede

individual não é ditada por nenhuma arquitetura de rede particular e sim escolhida

livremente pelo provedor, que a torna capaz de entrar em rede com outras redes pela

"Arquitetura de Internetworking". Até aquele período, havia apenas um método para

agregar redes: a tradicional troca de circuitos onde redes se interconectavam no nível do

circuito, passando bits individuais em base síncrona por um circuito ponta a ponta entre

duas localidades. Lembre que Kleinrock tinha mostrado em 1961 que troca de pacotes era

um método mais eficiente. Condições específicas de interconexão entre redes era outra

possibilidade. Enquanto havia outras formas limitadas de interconectar redes, todas

requeriam que uma fosse componente da outra, ao invés de agirem como companheiras

no oferecimento do serviço ponta a ponta. Numa rede de arquitetura aberta, as redes

individuais podem ser separadamente desenhadas e desenvolvidas e cada uma pode ter sua

interface própria que pode ser oferecida a usuários e outros provedores. Cada rede pode

ser desenhada de acordo com o ambiente e os requerimentos dos seus usuários. Não há

restrições em relação aos tipos de redes que podem ser incluídas numa área geográfica,

apesar de algumas considerações pragmáticas ditarem o que é razoável oferecer.

A idéia de redes de arquitetura aberta foi primeiro introduzida por Kahn em 1972. Este

trabalho foi parte de um programa de pacotes de rádio, mas depois se tornou um

programa em separado. Naquele tempo, o programa foi chamado "Internetting". NCP

não tinha a habilidade de endereçar redes e máquinas além da destinação IMP da

ARPANET e portanto deveria ser mudado. NCP se amparava na ARPANET para prover

confiabilidade de ponta a ponta. Se qualquer pacote fosse perdido, o protocolo e

qualquer aplicação que ele suportasse iria simplesmente parar a transferência de dados.

Nesse modelo, NCP não tinha controle de erro ponta a ponta, uma vez que se pensava

que a ARPANET seria a única rede em existência e ela seria tão confiável que nenhum

controle de erro seria necessário por parte dos servidores. Então Kahn decidiu

desenvolver uma nova versão do protocolo que iria satisfazer as necessidades de um

ambiente de redes de arquitetura aberta. Este protocolo iria eventualmente ser chamado

Transmission Control Protocol/Internet Protocol (TCP/IP). Enquanto NCP agia como um

driver de equipamento, o novo protocolo seria mais um protocolo de comunicações.

Quatro regras foram críticas para a idéia de Kahn:

Page 9: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

9

Cada rede distinta deveria ser independente e mudanças internas não deveriam

ser requisitadas para conectá-las à Internet;

Comunicações seriam na base do melhor esforço. Se um pacote não chegasse à sua

destinação final, ele seria retransmitido da fonte;

caixas pretas seriam usadas para conectar as redes. Mais tarde elas seriam

chamadas gateways e roteadores. Os gateways não reteriam informações sobre os

fluxos de pacotes passantes. Isso assegurou que eles se mantivessem simples,

evitando adaptações complicadas e recuperações de erros;

Não haveria controle global no nível operacional.

Outros itens avaliados foram os seguintes:

Algoritmos para prevenir perda de pacote de comunicações desabilitadas,

capacitando-os a serem retransmitidos da fonte;

Provimento de "pipelining" de servidor a servidor, de forma que múltiplos pacotes

poderiam ser roteados da fonte ao destino à vontade dos servidores

participantes, se redes intermediárias o permitissem;

Funções de gateway (porta de entrada) para encaminhar os pacotes

apropriadamente. Isso incluiria cabeçalhos de IP para roteamento, interfaces

dirigidas, quebra de pacotes em pedaços menores (caso necessário), etc;

A necessidade de checagens ponta a ponta, recuperação dos pacotes de

fragmentos e detecção de duplicatas;

A necessidade do endereçamento global;

Técnicas de controle de fluxo servidor a servidor;

Interfaces com vários sistemas operacionais;

Eficiência da implementação, performance entre as redes, etc.

Kahn começou a trabalhar na série orientada às comunicações dos princípios do sistema

operacional enquanto na BBN, e documentou alguns dos seus pensamentos num

memorando interno chamado "Princípios de Comunicações para Sistemas Operacionais".

Neste ponto, ele percebeu que seria necessário aprender os detalhes de implementação

de cada sistema operacional para ter a chance de embutir neles novos protocolos de uma

forma eficiente. Assim, na primavera de 1973, depois de começar o projeto

"internetting", Kahn chamou Vint Cerf (então trabalhando em Stanford) para trabalhar

com ele no desenho detalhado do protocolo. Cerf tinha se envolvido intimamente com o

desenho e desenvolvimento do NCP original e já tinha o conhecimento em interfacing

com os sistemas operacionais existentes. A abordagem arquitetônica para a comunicação

de Kahn e a experiência em NCP de Cerf possibilitaram a construção do que se tornou

TCP/IP.

Page 10: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

10

O trabalho de Kahn e Cerf foi altamente produtivo e a primeira versão escrita da teoria

resultante foi distribuída numa reunião especial do International Network Working Group

(INWG), que tinha sido definido numa conferência da Sussex University em setembro de

1973. Cerf tinha sido convidado para dirigir este grupo e usou a ocasião para realizar o

encontro do INWG. Algumas teses básicas surgiram da colaboração entre Kahn e Cerf:

Comunicação entre dois processos deveria consistir logicamente de uma longa

corrente de bytes (que eles chamaram de octets). A posição de qualquer octet

na corrente seria usada para identificá-lo;

O controle do fluxo seria feito usando janelas e corrediças e acks. O destino

poderia selecionar quando seria efetuado o reconhecimento e cada ack retornado

seria cumulativo para todos os pacotes recebidos;

Foi deixado em aberto como a fonte e o destino iria concordar nos parâmetros

das janelas a serem usadas. Padrões foram usados inicialmente;

Apesar de a Ethernet (sistema de redes que transporta sinais (bits) para todos

os microcomputadores em rede) estar em desenvolvimento em Xerox PARC

naquele tempo, a proliferação de LANs (redes locais) não era prevista, muito

menos a proliferação de PCs (computadores pessoais) e estações de trabalho. O

modelo original foi redes nacionais como a ARPANET, que se pensava não iriam

existir muitas como ela. Então um IP de 32 bits foi usado, dos quais os

primeiros 8 bits indicavam a rede e os restantes 24 bits designavam o servidor

na rede. Esta hipótese de que 256 redes seriam suficientes para o futuro

próximo passou necessariamente a ser reconsiderada quando LANs começaram a

aparecer no final da década de 1970.

O trabalho original de Cerf e Kahn sobre a Internet descreveu um protocolo chamado

TCP, que provia todo o transporte e serviços de encaminhamento na Internet. Kahn

queria que o protocolo suportasse uma série de serviços de transporte, desde a entrega

sequenciada de dados totalmente confiável (modelo de circuito virtual) até o serviço de

datagram, onde a aplicação fazia uso direto do serviço básico de rede, o que poderia

implicar em pacotes ocasionalmente perdidos, corrompidos ou reordenados. Entretanto, o

esforço inicial para implementar TCP resultou numa versão que somente permitiu

circuitos virtuais. O modelo funcionou bem para transferência de arquivos e aplicações de

logins remotos, mas alguns dos trabalhos em aplicações avançadas como pacotes de voz

mostraram que, em alguns casos, a perda de pacotes deveria ser corrigida pela aplicação e

não pelo protocolo TCP. Isso levou a uma reorganização do TCP original em dois

protocolos: o simples IP que provia apenas o endereçamento e o roteamento dos pacotes

individuais e o TCP em separado, que se preocupava com o controle do fluxo e a

recuperação de pacotes perdidos. Para as aplicações que não queriam os serviços de TCP,

uma alternativa chamada User Datagram Protocol (UDP) foi adicionada para prover

acesso direto ao serviço básico de IP.

Page 11: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

11

Uma grande motivação inicial para a ARPANET e para a Internet foi o compartilhamento

de recursos. A conexão das duas redes foi muito mais econômica do que a duplicação de

caros computadores. Entretanto, enquanto a transferência de arquivos e o login remoto

(Telnet) foram aplicações muito importantes, o correio eletrônico teve o impacto mais

significativo das inovações daquela época. O correio eletrônico ou e-mail criou um novo

modelo no qual as pessoas poderiam se comunicar e mudou a natureza da colaboração,

primeiro na construção da própria Internet e mais tarde na sua utilização por grande

parte da sociedade.

Outras aplicações foram propostas nos dias iniciais da Internet, incluindo comunicação de

voz (precursora da telefonia via Internet), vários modelos de compartilhamento de

arquivos e discos, e os primeiros programas que mostraram o conceito de agentes (e

vírus..). Um conceito-chave da Internet é que ela não é desenhada para apenas uma

aplicação, mas é uma infraestrutura genérica na quais novas aplicações podem ser

concebidas, como aconteceu com a World Wide Web. Foi e é a natureza do serviço

provido pelos protocolos TCP e IP que tornam isso possível.

Page 12: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

12

Capítulo III

DARPA fez três contratos para Stanford (Cerf), BBN (Ray Tomlinson) e UCL (Peter

Kirstein) implementarem TCP/IP (que foi simplesmente chamado TCP no trabalho de

Cerf/Kahn, mas que continha ambos os componentes). A equipe de Stanford, liderada

por Cerf, produziu uma detalhada especificação e, em um ano, havia três implementações

independentes de TCP que poderiam operar em conjunto. Este foi o começo de longa

experimentação e desenvolvimento a fim de evoluir e amadurecer os conceitos e a

tecnologia da Internet. Começando com as três primeiras redes (ARPANET, Packet

Radio e Packet Satellite) e suas comunidades iniciais de pesquisa, o ambiente

experimental cresceu para incorporar essencialmente qualquer forma de rede e grande

comunidade de pesquisa e desenvolvimento. E, com cada expansão, novos desafios

surgiram.

As primeiras implementações de TCP foram feitas por sistemas como Tenex e TOPS 20.

Quando os microcomputadores apareceram, alguns acharam que TCP foi grande e

complexo demais para rodar neles. David Clark e seu grupo de pesquisa no MIT

trabalharam para mostrar que poderia haver uma simples e compacta implementação de

TCP. Eles produziram esta implementação, primeiro para a Xerox Alto (a primeira

estação de trabalho pessoal desenvolvida em Xerox PARC) e depois para o IBM PC. Esta

implementação foi completamente inter-operável com outros TCPs, mas foi feita sob

medida para microcomputadores, e mostrou que estações de trabalho, tanto quanto

sistemas de grande porte, poderiam tornar-se parte da Internet. Em 1976, Kleinrck

publicou o primeiro livro sobre ARPANET, com ênfase na complexidade dos protocolos e

nas dificuldades que eles introduzem. Este livro foi importante na divulgação da crença

nas redes com trocas de pacotes para uma grande comunidade.

O desenvolvimento generalizado de LANs, PCs e estações de trabalho na década de 80

permitiu a prosperidade da Internet que nascia. A tecnologia Ethernet, desenvolvida por

Bob Metcalfe em 1973 na Xerox PARC é agora provavelmente a tecnologia de rede

dominante na Internet e os PCs e estações de trabalho são os computadores

dominantes. A mudança entre poucas redes com pequeno número de servidores (o

modelo original ARPANET) e muitas redes resultou num número de novos conceitos e

mudanças na tecnologia básica. Primeiro, isso resultou na definição de três classes de

rede (A, B e C) para acomodar o alcance das redes. A classe A passou a representar

redes de grande escala nacional (pequeno número de redes com grande número de

servidores). A classe B passou a representar redes de escala regional. E a classe C passou

a representar redes locais (grande número de redes com relativamente poucos

servidores).

Page 13: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

13

Uma grande mudança ocorreu como resultado do aumento da escala da Internet e os

assuntos gerenciais associados. Para facilitar o uso da rede, nomes foram atribuídos a

servidores para que não fosse necessário lembrar endereços numéricos. Originalmente, o

número de servidores foi limitado e, portanto, foi possível manter uma tabela única de

todos os servidores e seus nomes e endereços. A mudança para o grande número de

redes independentemente gerenciadas (por exempo, LANs) significou o fim da tabela

única de servidores, e o Domain Name System (DNS) foi inventado por Paul

Mockapetris, da USC/ISI. O DNS permitiu um mecanismo escalarmente distribuído para

resolver nomes de servidores hierárquicos (por exemplo, www.acm.org) num endereço

Internet.

O crescimento da Internet também desafiou a capacidade dos roteamentos.

Originalmente existiu um único algorítmo distribuído para roteamento que foi

implementado uniformemente por todos os roteadores na Internet. Quando explodiu o

número de redes na Internet e o desenho inicial de roteamento não expandiu o

suficiente, este foi substituído por um modelo hierárquico de roteamento com um

Interior Gateway Protocol (IGP) usado dentro de cada região da Internet e um Exterior

Gateway Project (EGP) usado para ligar as regiões. Este desenho permitiu que

diferentes regiões usassem diferentes IGPs, de forma que diferentes requerimentos de

custo, rápida configuração, robustez e escala pudesse ser acomodados. Não apenas o

algorítmo de roteamento, mas também o tamanho das tabelas de endereçamento

acentuou a capacidade dos roteamentos. Novas abordagens para agregação de endereço,

em particular roteamento entre domínios sem classe (CIDR) foram introduzidas para

controlar o tamanho das tabelas de roteamento. Um dos maiores desafios foi como

propagar as mudanças para o software, particularmente o software do servidor. DARPA

dava suporte à UC Berkeley para investigar modificações para o sistema operacional Unix,

inclusive incorporando o TCP/IP desenvolvido em BBN. Apesar de Berkeley ter mais tarde

reescrito o código para torná-lo mais adequado ao sistema Unix, a incorporação do

TCP/IP no Unix BSD foi crítica para a dispersão dos protocolos na comunidade de

pesquisa. Muitos da comunidade de pesquisa da ciência da computação já haviam

começado a usar Unix BSD no seu dia-a-dia e a estratégia de incorporar protocolos

Internet no sistema operacional da comunidade de pesquisa foi um dos elementos-chave

das larga e bem-sucedida adoção da Internet.

Um dos mais interessantes desafios foi a transição do protocolo de servidor da

ARPANET de NCP para TCP/IP em 01/01/1983. Foi uma transição imediata,

requisitando todos os servidores em conversão simultânea (ou então passariam a se

comunicar via mecanismos específicos). A transição foi cuidadosamente planejada pela

comunidade por anos antes e foi muito fácil no dia em que realmente aconteceu (mas

teve como consequência a distribuição de "buttons" dizendo "Eu sobrevivi à transição

para o TCP/IP").

Page 14: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

14

O protocolo TCP/IP tinha sido adotado como padrão de defesa três anos antes, em

1980. Tal fato levou diretamente à eventual divisão entre comunidades militar e não

militar. Em 1983, ARPANET estava sendo usada por um número significante de

organizações de pesquisa e desenvolvimento e de operações da defesa. A transição da

ARPANET do protocolo NCP para o protocolo TCP/IP permitiu a divisão entre a

MILNET, que passou a suportar os requisitos operacionais, e a ARPANET, que passou a

suportar as necessidades de pesquisa.

Portanto, em 1985, a Internet já estava bem estabelecida como uma larga comunidade

de suporte de pesquisadores e desenvolvedores e começava a ser usada por outras

comunidades para comunicações diárias pelo computador. O correio eletrônico já estava

sendo usado por muitas comunidades, frequentemente com sistemas diferentes, mas a

interconexão entre os diferentes sistemas de correio foi demonstrando a utilidade de

comunicação eletrônica entre as pessoas.

Page 15: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

15

Capítulo IV

Ao mesmo tempo em que a tecnologia Internet estava sendo experimentalmente validada

e largamente utilizada por um conjunto de pesquisadores da ciência da computação,

outras redes e tecnologias de rede estavam sendo criadas. A utilidade das redes

computadorizadas - especialmente o correio eletrônico - demonstrada por DARPA e pelo

Departamento de Defesa dos Estados Unidos não foi perdida em outras comunidades e

disciplinas, e, ainda na década de 1970, redes começaram a aparecer em qualquer lugar

que dispusesse de fundos e recursos para isso. O Departamento de Energia dos Estados

Unidos estabaleceu a MFENet para seus pesquisadores em energia de fusão magnética e a

HEPNet para o grupo de física de alta energia. Os físicos espaciais da NASA seguiram

com a SPAN, e Rick Adrion, David Farber, and Larry Landweber estabeleceram a CSNET

para a comunidade acadêmica e industrial da Ciência da Computação com um subsídio

inicial da NSF-National Science Foundation. A livre disseminação do sistema operacional

Unix na AT&T resultou na USENET, baseada no protocolo de comunicação UUCP incluído

no Unix, e, em 1981, Ira Fuchs e Greydon Freeman projetaram a BITNET, que ligou os

computadores acadêmicos num paradigma do tipo "correio eletrônico como imagens de

cartão".

Com a exceção da BITNET e da USENET, estas primeiras redes (incluindo ARPANET)

tinham sido construídas para um objetivo específico, isto é, elas foram criadas para, e

largamente restritas a, comunidades fechadas de acadêmicos. Havia pouca pressão para

que as redes individuais fossem compatíveis e, na verdade, elas não eram. Mais ainda,

tecnologias alternativas estavam sendo procuradas pelo segmento comercial, incluindo

XNS da Xerox, DECNet e SNA da IBM. Restou à inglesa JANET (1984) e à U.S.

NSFNET (1985) programas para explicitamente anunciar seus intentos de servirem à

comunidade educacional, não importando a disciplina. Mais, a condição para universidades

americanas receberem fundos do NSF era que "a conexão deveria estar disponível para

todos os usuários qualificados no campus".

Em 1985, Dennis Jennings, da Irlanda, passou um ano na NSF liderando o programa da

NSFNET. Ele trabalhou com a comunidade para ajudar a NSF a tomar uma decisão

crítica: que TCP/IP iria ser mandatório para o programa da NSFNET. Quando Steve

Wolff chegou à NSFNET em 1986, ele reconheceu a necessidade por uma infraestrutura

de rede maior para suportar as comunidades acadêmicas e de pesquisa, além da

necessidade de desenvolver uma estratégia para estabelecer esta infraestrutura

independentemente dos recursos federais. Políticas e estratégias foram adotadas para

atingir este fim.

Page 16: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

16

NSF também decidiu suportar a infraestrutura organizacional da Internet da DARPA já

existente, hierarquicamente arranjada pelo então Internet Activities Board (IAB). A

declaração pública desta opção foi a autoria conjunta pelo grupo de Engenharia e

Arquitetura da Internet da IAB e pelo grupo de Assessoria Técnica de Rede da NSF do

RFC 985 - Requirements for Internet Gateways, que formalmente assegurou a

interoperabilidade entre DARPA e NSF.

Em adição à seleção do TCP/IP para o NSFNET, agências federais norte-americanas

fizeram e implementaram várias outras decisões políticas que definiram a Internet de

hoje, como segue:

Agências federais norte-americanas dividiram o custo da infraestrutura, como os

circuitos transoceânicos. Elas também apoiaram os pontos de interconexão para o

tráfego entre agências. Federal Internet Exchanges (FIX-E e FIX-W) construídas

com este objetivo serviu como modelos para os pontos de acesso da rede e

facilidades "*IX" que são características proeminentes da arquitetura Internet de

hoje;

Para coordenar esta participação, foi formado o Federal Networking Council

(Conselho Federal de Redes). The FNC cooperou com organizações internacionais

como o RARE na Europa, através do Comitê de Pesquisa Intercontinental, para

coordenar o apoio da comunidade mundial de pesquisa à Internet;

Esta participação e cooperação entre agências em assuntos relacionados à Internet

tem uma longa história. Um acordo sem precedentes realizado em 1981 entre

Farber, representando a CSNET e a NSF, e Kahn, representando a DARPA,

permitiu à CSNET compartilhar a infraestrutura da ARPANET numa base

estatística;

Similarmente, a NSF encorajou redes regionais (inicialmente acadêmicas) da

NSFNET a buscar clientes comerciais, expandir seus estabelecimentos para serví-

los e explorar as resultantes economias de escala para baixar os custos de

subscrição para todos;

No backbone da NSFNET, o segmento de escala nacional da NSFNET, NSF fez

cumprir uma política (Acceptable Use Policy - AUP) que proibiu o uso do

backbone para objetivos que não fosssem de suporte à Pesquisa e à Educação. O

resultado predizível e desejado do encorajamento de tráfego comercial nos níveis

local e regional, enquando proibindo seu acesso ao backbone nacional, foi estimular

a emergência e o crescimento de redes privadas e competitivas (como PSI,

UUNET, ANS CO+RE e outras mais tarde). Este processo de aumento de redes

privadas e autofinanciadas para usos comerciais foi iniciado em 1988 numa série

de conferências promovidas pela NSF em Harvard's Kennedy School of

Government sob o título "A Comercialização e Privatização da Internet" e na

lista "com-priv" da rede;

Page 17: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

17

Em 1988, o comitê do Conselho Nacional de Pesquisa norte-americano, dirigido

por Kleinrock e com Kahn e Clark como membros, produziu um relatório

autorizado pela NSF entitulado "Em Direção a uma Rede Nacional de Pesquisa".

Este relatório influenciou o então Senador Al Gore e anunciou as redes de alta

velocidade que se tornariam a fundação para a superhighway da informação do

futuro;

Em 1994, o comitê do Conselho Nacional de Pesquisa norte-americano,

novamente dirigido por Kleinrock e novamente com Kahn e Clark como membros,

produziu um novo relatório autorizado pela NSF intitulado "Fazendo Ideia do

Futuro da Informação: a Internet e Além". Neste documento, a superhighway da

informação foi articulada e tópicos críticos como direitos da propriedade

intelectual, ética, preços, educação, arquitetura e regulamentação da Internet

foram discutidos;

A política de privatização da NSF culminou em abril de 1995, com o fim do

subsídio ao backbone da NSFNET. Os fundos recuperados foram competitivamente

redistribuídos para redes regionais para compra de conectividade nacional das

agora numerosas redes privadas.

O backbone fez a transição entre a rede construída de roteadores da comunidade de

pesquisa para equipamentos comerciais. Em seus oito anos e meio, o backbone cresceu de

seis nodes com links de 56 Kb para 21 nodes com múltiplos links de 45 MB. A Internet

cresceu para mais de 50 mil redes em todos os sete continentes, com aproximadamente

29 mil redes apenas nos Estados Unidos.

Tal foi o peso do ecumenismo e dos recursos da NSFNET (US$ 200 milhões entre 1986

e 1995) e a qualidade dos protocolos, que em 1990, quando a ARPANET foi

desautorizada, TCP/IP tinha suplantado e marginalizado os demais protocolos de rede, e

IP estava também se tornando o serviço de sustentação da infraestrutura da informação

global.

Page 18: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

18

Capítulo V

A chave para o rápido crescimento da Internet tem sido o livre e aberto acesso aos

documentos básicos, especialmente as especificações dos protocolos.

Os inícios da ARPANET e da Internet na comunidade acadêmica de pesquisa promoveu a

tradição acadêmica de publicação de idéias e resultados. Entretanto, o ciclo normal da

publicação acadêmica tradicional era formal e devagar demais para a dinâmica troca de

idéias na criação das redes. Em 1969, um passo importante foi tomado por S. Crocker,

então na UCLA, estabelecendo série de notas relativas a "Request for Comments" (RFC,

ou, traduzindo, Solicitação de Comentários). Estas notas ou memorandos seriam uma

forma rápida de distribuição de observações no compartilhamento de idéias com outros

pesquisadores. A princípio, os RFCs eram impressos e distribuídos pelo correio tradicional.

Quando o File Transfer Protocol (FTP, significando protocolo de transferência de

arquivos) começou a ser usado, os RFCs se tornaram arquivos online acessados via FTP.

Agora, claro, os RFCs são facilmente acessados via web em dezenas de sites no mundo. O

SRI- Stanford Research Institute, no papel de Centro de Informação de Redes, manteve

os diretórios online. Jon Postel atua até hoje como editor dos RFCs, bem como gerente

da administração centralizada de número de protocolo.

O efeito dos RFCs foi criar um círculo positivo de retornos, com idéias e propostas

apresentadas em um RFC gerando outro RFC com mais idéias, e daí por diante. Quando

algum consenso (ou pelo menos uma série consistente de idéias) era atingido, um

documento com as especificações era então preparado. Estas especificações seriam então

usadas como base para implementações pelas várias equipes de pesquisa.

Com o tempo, os RFCs se tornaram mais focados nos padrões de protocolo (as

especificações oficiais), apesar de ainda existir RFCs informativos que descrevem

abordagens alternativas ou provêem informações antecedentes sobre protocolos e

engenharia. Os RFCs são agora vistos como documentos de registro nas comunidades de

engenharia e padrões da Internet. O acesso aberto aos RFCs (grátis, se você tem

qualquer tipo de conexão com a Internet) promove o crescimento da Internet porque

permite que especificações reais sejam usadas como exemplos em classes universitárias e

por empreendedores desenvolvendo novos sistemas.

O correio eletrônico tem sido essencial em todas as áreas da Internet, e especialmente

no desenvolvimento das especificações dos protocolos, padrões técnicos e engenharia da

Internet. OS RFCs mais antigos apresentaram um conjunto de idéias desenvolvidas por

pesquisadores de um determinado lugar para o resto da comunidade. Depois que o e-mail

Page 19: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

19

ou correio eletrônico começou a ser utilizado, o padrão de autoria mudou - os RFCs

eram apresentados por coautores com uma visão comum, independentemente de suas

localizações.

O uso de listas de discussão especializadas tem por muito tempo sido usado no

desenvolvimento das especificações de protocolo e continua a ser uma ferramenta

importante. O IETF tem agora mais de 75 grupos de trabalho, cada um trabalhando

num aspecto diferente da engenharia da Internet. Cada um desses grupos tem uma lista

de discussão para trocar idéias sobre documentos em desenvolvimento. Quando o consenso

é atingido num rascunho, o documento é então distribuído como um RFC.

Como o rápido crescimento da Internet é acelerado pelo entendimento da sua capacidade

de promover o compartilhamento de informações, nós deveríamos entender que o

primeiro papel da rede foi permitir o compartilhamento da informação sobre seu próprio

desenho e operação através dos RFC. Este método único para a evolução de novas

capacidades da rede continuará a ser crítico na evolução futura da Internet.

Page 20: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

20

Capítulo VI

A Internet representa tanto uma coleção de comunidades como uma coleção de

tecnologias, e seu sucesso é largamente atribuída à satisfação das necessidades básicas da

comunidade e à utilização efetiva da comunidade na expansão da sua infraestrutura. O

espírito da comunidade tem uma longa história, começando com a ARPANET. Os

pesquisadores da antiga ARPANET trabalharam numa comunidade fechada para

conseguirem fazer as demonstrações iniciais da tecnologia de transferência de pacotes

descrita anteriormente. Da mesma forma, vários outros programas de pesquisa da ciência

da computação promovidos pela DARPA (Packet Satellite, Packet Radio e outros) foram

fruto de atividades cooperadas que usavam pesadamente qualquer mecanismo disponível

para coordenar seus esforços, começando com o correio eletrônico e acrescentando

compartilhamento de arquivos, acesso remoto e WWW. Cada um dos programas formou

um grupo de trabalho, começando com o Grupo de Trabalho de Rede da ARPANET. Por

conta do papel da ARPANET na infraestrutura de suporte a vários programas de

pesquisa, e com a evolução da Internet, o Grupo de Trabalho de Rede se tornou o Grupo

de Trabalho da Internet.

No final da década de 70, reconhecendo que o crescimento da Internet foi acompanhado

pelo crescimento em tamanho da comunidade de pesquisa interessada na Internet e que,

portanto, havia uma necessidade maior de mecanismos de coordenação, Vint Cerf, então

gerente do Programa Internet da DARPA, formou vários grupos de coordenação:

Um Conselho de Cooperação Internacional (ICB-Internet Cooperation Board),

presidido por Peter Kirstein da UCL, para coordenar as atividades com alguns

países europeus envolvidos no programa Packet Satellite;

Um Grupo de Pesquisa Internet (Internet Research Group), para prover um

ambiente para a troca geral de informações sobre a Internet;

E um Conselho de Controle de Configuração da Internet (ICCB-Internet

Configuration Control Board), presidido por Clark. O ICCB iria assessorar Cerf na

gerência da florescente Internet.

Em 1983, quando Barry Leiner passou a gerenciar o programa de pesquisa da Internet na

DARPA, ele e Clark reconheceram que o crescimento contínuo da comunidade Internet

demandava uma reestruturação dos mecanismos de coordenação. O ICCB foi então

substituído por forças-tarefa, cada uma focalizando uma área particular da tecnologia

(roteamentos, protocolos ponta-a-ponta, etc.). O IAB, então chamado Internet

Activities Board ou Conselho de Atividades Internet, foi então formado com os

presidentes das forças-tarefa. Foi uma coincidência que esses presidentes fossem os

mesmos do antigo ICCB e Dave Clark continuou a presidi-lo. Depois de algumas mudanças

Page 21: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

21

no IAB, Phill Gross se tornou o presidente da revitalizada IETF-The Internet Engineering

Task Force (Força-Tarefa da Engenharia da Internet), naquele tempo apenas uma das

forças-tarefa do IAB. Em 1985 então, houve um tremendo crescimento no lado

prático/da engenharia da Internet. Este crescimento resultou na explosão dos

comparecimentos nas reuniões do IETF, e Gross teve que criar uma subestrutura do IETF

na forma de grupos de trabalho.

Este crescimento foi complementado por uma grande expansão da comunidade. DARPA

então tinha deixado de ser o maior financiador da Internet. Além da NSFNet e de várias

atividades financiadas pelos governos americanos e internacionais, o segmento comercial

começou a se interessar pela Internet. Também em 1985 Kahn e Leiner deixaram a

DARPA que não vinha conseguindo manter seu ritmo de atividades Internet. Como

resultado, o IAB perdeu seu patrocinador e progressivamente assumiu o papel de líder na

Internet.

O crescimento da Internet continuou, resultando em nova subestruturação do IAB e do

IETF. O IETF combinou Grupos de Trabalho em Áreas, e designou Diretores de Áreas.

Um Grupo Diretivo de Engenharia da Internet ou a IESG- Internet Engineering Steering

Group foi formado com Diretores de Áreas. A IAB reconheceu a crescente importância do

IETF e reestruturou o processo de padrões para explicitamente reconhecer o IESG como

o grupo principal de revisão para os padrões. O IAB também foi reestruturado de forma

que o resto das forças-tarefa (outras além do IETF) fossem combinadas numa Força-

Tarefa de Pesquisa Internet ou IRTF- Internet Research Task Force, presidida por

Postel, com as outras forças-tarefa renomeadas como Grupos de Pesquisa.

Page 22: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

22

Capítulo VII

O correio eletrônico foi a primeira aplicação surgida na Internet, com o objetivo de

facilitar a comunicação e a troca de idéias e observações entre o grupo de acadêmicos que

estava construindo e experimentando a Internet. Os documentos mais antigos da

comunidade eram distribuídos via correio tradicional, eram, portanto pouco ágeis e

apresentavam conjuntos de idéias desenvolvidas por pesquisadores de um determinado

lugar para o resto da comunidade. Depois que o e-mail ou correio eletrônico começou a

ser utilizado, a velocidade da comunicação o padrão de autoria dos trabalhos mudaram.

Os documentos passaram a ser apresentados por coautores com uma visão comum,

independentemente de suas localizações. E a capacidade e a velocidade de envio da

comunicação e da resposta à comunicação aumentaram exponencialmente.

O Que É o Correio Eletrônico:

O correio eletrônico é um tipo de correio disponível pela Internet onde você usa uma

caixa postal eletrônica simbolizada por um endereço do tipo

[email protected]. Esta caixa postal eletrônica tem o mesmo conceito

da caixa postal tradicional: sabendo do endereço da sua caixa postal, qualquer pessoa

poderá enviar uma mensagem eletrônica para você. Todas as mensagens enviadas para

você ficam armazenadas nos servidores de e-mail do seu provedor até a hora em que

você acesse a Internet (você precisa estar conectado à Internet para receber seus e-

mails) e dê o comando para recebê-las, baixando-as para o seu microcomputador pessoal.

As Vantagens do Correio Eletrônico:

A aplicação básica do correio eletrônico é a comunicação entre duas ou mais pessoas. Esta

comunicação pode ser de caráter pessoal (entre familiares e amigos) e de caráter

profissional (entre funcionários da mesma empresa, parceiros de empresas distintas,

clientes e fornecedores ou prestadores de serviços, profissionais e imprensa, etc). O e-

mail tem grandes vantagens:

É ágil: toma segundos ou minutos para chegar até à caixa postal do destinatário,

em qualquer parte do mundo;

É de graça: você não paga por e-mail enviado ou recebido, mas apenas uma

mensalidade ao seu provedor pelo acesso à Internet;

É escrito: facilita o acompanhamento de solicitações;

Permite o envio de mensagens para muitas pessoas ao mesmo tempo;

Permite respostas a mails recebidos;

Permite encaminhamentos de mails recebidos a terceiros;

Page 23: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

23

Permite o envio de arquivos de dados anexados: imagine que beleza poder receber

um arquivo integral em seu formato original para trabalho ou consulta.

Do ponto de vista de quem recebe e-mails, ele é também muito cômodo, já que

as mensagens são recebidas na caixa postal particular do destinatário e lá ficam à

espera que ele (a) as acesse.

Page 24: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

24

Capítulo VIII

Domínio é o nome de uma área reservada num servidor Internet que indica o endereço

de um website. O identificador do ambiente Web (http://) não faz parte do domínio.

Geralmente, o domínio toma a forma de nomedaempresa.com.br, se a empresa for

comercial, ou nomedaorganização.org.br, se a empresa não for comercial. Existem também

outros tipos de domínios no Brasil. Clique aqui para conhecê-los.

Por Que é Importante Ter um Domínio Próprio:

A obtenção de domínio com o nome da sua empresa, projeto ou produto será

fundamental para o seu presente e para o seu futuro. Isto porque, certamente, chegará

a hora em que você quererá ter um website na Internet e ter pessoas visitando o seu

website (quanto mais, melhor!). E a forma mais fácil de alguém supor o seu endereço

de website (ou URL) é colocando o nome da sua empresa ou projeto ou produto.com.br!

Porque, se a sua empresa não tiver um domínio próprio disponível na Internet, o

endereçamento do seu website será algo como

http://www.nomedoseuprovedor.com.br/nomedasuaempresa. Difícil de acertar (como os

internautas saberão que provedor lhe atende?) e muito grande, concorda?

A não obtenção do domínio com o nome da sua empresa poderá inclusive gerar perda de

clientes e dores-de-cabeça legais. Imagine se o domínio com o nome da sua empresa já foi

registrado por outra empresa - que pode ter o mesmo nome da sua (ou não) e foi mais

rápida no registro do domínio. Já vimos vários casos assim. E, perdendo a chance de

registrar um domínio, sua recuperação é difícil e onerosa. Veja parecer sobre conflitos

entre marcas e nomes na Internet dado pelo escritório Pinheiro Neto Advogados.

O Que É Necessário para Registrar um Domínio no Brasil:

FAPESP

No Brasil, o órgão regulador de domínios é a Fundação de Amparo à Pesquisa do Estado

de São Paulo. A FAPESP mantém o banco de registros de domínios pela Internet. O

registro.br permite o registro, a manutenção e a publicação dos domínios na Internet sob

o domínio .br (indicador do Brasil como país sede do domínio), por pessoas físicas e

jurídicas legalmente estabelecidas no Brasil.

Page 25: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

25

O registro.br possibilita a pesquisa online de domínios. A primeira tela do site já lhe

mostrará uma pequena janela onde será possível fazer a pesquisa para saber se o domínio

desejado está disponível.

Quanto Custa para Ter um Domínio Próprio?

Para registrar e manter um domínio próprio, você pagará dois tipos de taxas: uma taxa

para a FAPESP e outra taxa para o provedor que estará hospedando o seu domínio e o

seu website:

À FAPESP, você pagará R$ 30,00 pelo registro do domínio e R$ 30,00 pela

manutenção anual. Os valores são os mesmos para pessoas jurídicas, profissionais

liberais ou pessoas físicas;

Ao provedor que estará hospedando o seu domínio e o seu website, você pagará

uma taxa de inscrição (às vezes isenta) e mensalidades. O valor da inscrição e das

mensalidades varia de provedor a provedor. O exemplo do que sugerimos na fase

de seleção do seu provedor de acesso, levante os preços e benefícios de cada

provedor em relação a domínio e hospedagem de websites.

Page 26: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

26

Capítulo IX

Este capítulo apresenta um pequeno glossário com o significado dos principais termos da

Internet:

@ (at ou arroba) significa "em", antecedendo o local (provedor ou domínio próprio)

onde suas caixas postais estão hospedadas. Ex: [email protected].

Ad é um gráfico ou um banner de uma página web que, quando clicado, leva o internauta

à outra Web site.

Ad Click é o ato de clicar em um ad.

Ad View é a página que mostra o ad. Podem ser mostrados um ou vários "ads" em um

mesmo "ad view".

Alias é um nome alternativo (para uma URL, e-mail, arquivo ou variável, por exemplo).

Antivírus é um programa de computador que localiza e corrige os estragos feitos por

programas de vírus.

ARPANET é a rede de compartilhamento de computadores da ARPA - Advanced

Research Projects Agency, que mais tarde evoluiu para a Internet.

Attachment é o nome que se dá a um ou mais arquivos que seguem anexados (attached

ou, aportuguesando, atachados) a uma mensagem eletrônica.

Autenticação é a técnica pela qual a Internet requer a identificação do internauta

através da digitação do seu username e password.

Avatar é a personificação de algo ou alguém; a representação de um jogador virtual num

jogo eletrônico ou online.

Backbone é a infraestrutura formada pelas linhas de comunicação e o hardware de

transmissão e de recepção para acesso à Internet mundial vendido aos provedores.

Backup é copiar arquivos para um segundo dispositivo (outro drive ou disquete) como

medida de precaução no caso de haver algum problema com o dispositivo original onde os

arquivos se encontram. Uma das mais importantes regras no uso de computadores é

"faça o backup de seus arquivos regularmente".

Page 27: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

27

Banda larga é o termo genérico de linhas de alta velocidade de transmissão de dados para

a conexão com a Internet.

Bandwidth é: a) a medida em Kb de dados transferidos num tráfego de um website; b)

a capacidade de transporte da informação pelos fios, cabos e canais que nos conectam no

cyberspace - há um limite para a quantidade de dados que qualquer tipo de

fio/cabo/canal pode transportar num determinado momento, mesmo no caso de fibras

óticas; c) a capacidade de armazenamento de um sistema.

Banner é um anúncio de propaganda colocado num website (banner em inglês quer dizer

estandarte).

BIT é a sigla para BInary digiT ou dígito binário.

BPS significa bits por segundo. É uma medida de velocidade de dados de transmissão via

modem.

Bridge é um equipamento que conecta duas redes locais (LANs) ou dois segmentos de

uma mesma LAN. Diferentemente dos roteadores ou routers, bridges são protocolo-

independente, enviando pacotes sem a capacidade de otimizar rotas. Isso lhes dá

velocidade, mas muito menos versatilidade.

Browser é o nome dado aos programas de computador usados para localizar e visualizar

documentos em HTML. São esses programas que permitem a navegação no ambiente

WWW e a visualização de websites. Ex: Microsoft Internet Explorer.

Buttons são botões ou selos ilustrativos que fazem parte da programação visual do

website.

Byte é uma medida de armazenamento em espaço em disco igual a 8 bits.

CGI significa Common Gateway Interface. São scripts que permite a inclusão de

formulários em páginas Web. Perl é a linguagem tradicional dos scripts CGI.

Click through rate é o percentual de usuários que clicam num "ad" exposto numa página

web.

Comércio eletrônico é a venda de produtos e serviços através da Internet.

Computador é um equipamento eletrônico capaz de ordenar, calcular, testar, pesquisar e

editar informações de acordo com instruções estabelecidas e segundo uma representação

binária, obedecendo a um conjunto de operações aritméticas e lógicas.

Page 28: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

28

Conta é uma permissão para acesso à Internet, normalmente simbolizada por um login e

uma senha. A conta é aberta e mantida num provedor de acesso mediante o pagamento

de mensalidades pelo internauta.

Cookies são arquivos contendo informações como nome e preferências dos visitantes de

um website. Esta informação é fornecida por cada internauta em sua primeira visita ao

site. O servidor do site visitado regista a informação num arquivo e armazena este

arquivo no disco rígido do internauta. Quando o internauta retorna ao site, o servidor

procura e acha o cookie e se autoconfigura de acordo com a preferências indicadas por

cada internauta.

Correio eletrônico ou e-mail é o sistema de comunicação baseado no envio e no

recebimento de mensagens eletrônicas via Internet. Indica tanto o ambiente da Internet

onde você envia mensagens eletrônicas como a própria mensagem eletrônica em si.

CPU quer dizer Central Processing Unit ou Unidade Central de Processamento. É a

unidade que leva e traz instruções da memória do computador e as decodifica para

controlar todas as outras partes do computador.

Criptografia é o embaralhamento do conteúdo de uma mensagem eletrônica ou e-mail

numa sequência de caracteres alfanuméricos. É usada para dar maior segurança ao envio

de dados pela Internet.

Cyberspace é espaço eletrônico e onde ocorrem as transações na Internet.

DARPA ou Defense Advanced Research Projects Agency é a organização central de

pesquisa e desenvolvimento do Departamento de Defesa norte-americano.

DHTML é a sigla para Dynamic Hipertext Markup Language. É um tipo de linguagem

utilizada para construir as páginas da Web e os websites com recursos de acesso

dinâmico.

Dial-Up é nome do programa utilizado pelo Windows para fazer a conexão do internauta

com o provedor de acesso à Internet.

Disco rígido é o disco interno ao computador onde os dados são armazenados.

DNS significa Domain Name Server. É um sistema hierárquico de bases de dados

distribuídas que converte um nome de domínio em um endereço IP do

computador/servidor Internet de um provedor de acesso e hospedagem de websites.

Page 29: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

29

Domínio é o nome de uma área reservada num servidor Internet que corresponde ao

endereço numérico de um website (endereço IP). No Brasil, os domínios sempre

terminam com .br (sigla do Brasil na Internet) e podem apresentar vários tipos (.com

para empresas comerciais, .org para empresas não comerciais, etc.). Ex: aisa.com.br é um

domínio brasileiro do tipo comercial (o mais comumente usado).

Download é o ato de copiar um arquivo de um website qualquer disponível na Internet

para o seu computador pessoal.

Downtime é a quantidade de minutos e horas por mês nos quais o provedor fica fora do

ar para manutenção técnica preventiva e corretiva.

E-commerce ou comércio eletrônico é a realização de negócios através da Internet.

E-mail significa correio eletrônico e indica tanto o ambiente da Internet onde você envia

mensagens eletrônicas como a própria mensagem eletrônica em si.

Endereço IP é o endereço de cada servidor conectado à Internet, de acordo com o

Internet Protocol.

Ethernet é um sistema de redes que transporta sinais (bits) para todos os

microcomputadores em rede.

FAQs (frequently asked questions) significa questões frequentemente perguntadas. É um

recurso muito útil no atendimento aos clientes pela Internet, já que antecipa as

perguntas dos clientes e as responde sob a forma de página Web.

Filtros são formas de diminuir o escopo de consultas pela definição de áreas ou tipos de

dados a serem incluídos ou excluídos.

Firewall são softwares de proteção cuja missão é impedir a entrada de hackers em

empresas conectadas à Internet.

Formulários são páginas HTML usadas para coletar informações dos internautas. São

também chamadas "scripts".

Freeware são programas de computador de domínio público, ou seja, são gratuitos e

podem ser usados à vontade pelos internautas.

FTP ou File Transfer Protocol significa protocolo de transferência de arquivos pela

Internet. É o método padrão de enviar arquivos entre computadores pela Internet.

Page 30: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

30

Gateway é a porta de entrada de cada rede individual ligada à Internet.

GB ou G ou gigabyte é uma medida de armazenamento em espaço em disco igual a

1,024 megabytes.

GIF ou Graphic Interchange Format é um padrão gráfico que permite salvar imagens em

tamanho reduzido. É um formato de arquivo de imagem comumente usado em páginas

HTML.

Gopher é um sistema anterior à World WideWeb (WWW), que organizava e mostrava

arquivos dos servidores Internet em formato texto, hierarquicamente estruturado. Com

a Web, os bancos de dados do Gopher têm sido transformados em Web sites, muito

mais versáteis e fáceis de acessar.

Hackers são especialistas em violar sistemas de computação.

Hardware são a estrutura e as peças eletrônicas, magnéticas e mecânicas de um

computador.

Hiperlinks são palavras ou ilustrações pré-estabelecidas como pontos de saltos. Quando

clicadas, provocam a transferência para outro assunto ou página Web. Hiperlinks são

comumente chamados links.

Hipermídia é a mídia que inclui gráficos, sons e vídeos.

Hipertexto é o texto em formato de cruzamentos. O hipertexto permite os saltos de

um assunto para outro ou de uma página para a outra através de hiperlinks ou links.

Hit é qualquer ação de um internauta quando visitando um website, seja ver uma página

ou download um arquivo.

Homepage é a página de entrada ou página principal de um website. É nesta página que

estão os links para as demais páginas do website.

Hospedagem é o ato de armazenar websites de clientes por parte de um provedor de

acesso.

Host é um computador numa rede de computadores.

Hot link é um link entre duas aplicações de forma que a mudança em uma atualiza

automaticamente a outra.

Page 31: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

31

HTML ou Hyper Text Markup Language é a linguagem padrão utilizada para construir os

documentos Web (websites).

HTTP ou Hyper Text Transfer Protocol é o protocolo padrão que permite a

transferência de dados na Web entre os servidores e os browsers. É este protocolo que

permite os saltos de uma página para a outra através dos links do hipertexto.

Hub é um ponto comum de conexão para equipamentos em rede. São normalmente

usados para conectar os segmentos de uma LAN.

Internauta é a gíria usada para identificar o usuário da Internet, a pessoa que usa a

Internet para comunicação, pesquisa, trabalho e/ou lazer.

Intranet é uma rede baseada em protocolos TCP/IP (uma internet) que pertence a uma

empresa e que é acessada apenas pelos membros e funcionários da empresa (e,

eventualmente, também por outras pessoas que tenham autorização para tal). Como a

Internet, intranets são usadas para compartilhar informações.

IP, ou Internet Protocol, é o protocolo da Internet. É este protocolo que identifica,

localiza e estabelece conexão entre computadores ligados à Internet.

IRC significa Internet Relay Chat. Também conhecido como "bate-papo", é um ambiente

que permite comunicação escrita online entre usuários da Internet.

ISP significa Internet Service Provider ou provedor de acesso à Internet.

JPG ou JPEG é a sigla para Joint Photographic Experts Group. É um formato de

arquivo de imagem comumente usado em páginas HTML.

KB significa Kilobyte. É uma medida de armazenamento em espaço em disco igual a

1.024 bytes.

Kbps é a sigla para Kilobits Per Second. É uma medida de velocidade de transmissão de

dados. 1 Kbps = 1.000 bps (bits por segundo).

LAN significa Local Area Network. É uma rede local de computadores localizados em uma

área relativamente pequena.

Laptop é um computador pequeno e portátil que você pode colocar no seu colo (top=em

cima e lap=colo em inglês). Também conhecido como notebook.

Page 32: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

32

Links são palavras ou ilustrações pré-estabelecidas como pontos de saltos. Quando

clicadas, provocam a transferência para outro assunto ou página Web.

Lista de discussão é um programa que reúne vários endereços de correio eletrônico de

pessoas interessadas em um assunto específico. Este programa redistribui a todos os

mails que tenham sido passados por qualquer um dos participantes da lista.

Log é um arquivo criado por um servidor web que contém todas as informações de

acessos à Internet considerando a atividade do servidor.

Log in ou log on pode significar: a) o ato de acessar a Internet, Web sites ou qualquer

aplicação de software; b) o seu nome de usuário para o acesso à Internet (cadastrado

em um provedor em conjunto com uma senha) ou para o acesso a um Web site que

porventura exija um cadastramento prévio do internauta (neste caso, o cadastramento

do log in é feito no website).

Log off ou log out significa terminar uma sessão no computador, através do fechamento

das aplicações em uso (disponíveis na Internet ou na própria máquina do usuário) e do

desligamento do computador.

MB ou M significa Megabyte. É uma medida de armazenamento em espaço em disco igual

a 1.024 KB ou 1.048.576 bytes.

MbPS significa Megabits Per Second. É uma medida de velocidade de transmissão de

dados via modem. 1 MbPS = 1.000 KbPS = 1.000.000 BPS.

Micreiro é aquele que passa muito tempo trabalhando ou brincando com o auxílio de um

micro-computador.

Micro-computador é um computador de pequeno porte. É também chamado PC, sigla

para Personal Computer (computador pessoal).

Modem é a sigla para MOdulator/DEModulator. É um equipamento que transforma os

sinais digitais de seu microcomputador em sinais analógicos que podem viajar através de

uma linha telefônica. O som que você ouve quando faz a discagem para o seu provedor

de acesso informa que a ligação foi feita e que os sinais analógicos enviados do seu micro

chegaram em um dos modens de recepção do provedor. A partir daí, os sinais analógicos

são convertidos novamente em informação digital, tornando possível o seu acesso à

Internet.

Navegação é o processo de se mover de um website para outro seguindo links.

Page 33: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

33

Navegador ou browser é o nome dado aos programas de computador usados para localizar

e visualizar documentos em HTML. São esses programas que permitem a navegação no

ambiente WWW e a visualização de Web sites. Ex: Microsoft Internet Explorer.

NCP significa Network Control Protocol, ou protocolo de controle de redes.

Nerd significa micreiro bitolado e compulsivo.

Netiquette é a etiqueta da Internet.

Newsgroups são grupos de notícias sobre assuntos diversos enviados a internautas pré-

cadastrados.

Node é uma unidade da informação.

Notebook é um computador pessoal pequeno, leve e portátil. Notebook = caderno em

inglês.

On-line significa ligado e conectado. Usuários estão on-line quando estão conectados com

a Internet através de um modem.

Page view é o número de hits exclusivamente para páginas HTML. É também chamado

"page impression".

Página é o conjunto de textos e ilustrações que são mostrados em uma mesma tela.

Password quer dizer palavra-chave ou senha. Normalmente é associada a um login por

questão de segurança.

PC significa "personal computer" ou computador pessoal.

Plataforma é o sistema operacional utilizado pelo internauta (Windows 95, NT, Unix,

etc.).

POP significa Point of Presence. São os pontos de presença dos backbones Internet em

cada cidade onde o backbone oferece serviço aos provedores de acesso.

Portal é uma página ou website que agrega vários links e serviços, servindo como porta

de entrada ou ponto de partida para a navegação de internautas.

Protocolo é um formato estabelecido para a transmissão de dados entre dois dispositivos

de computadores (drives, impressoras e modens, por exemplo). Protocolos definem o

tipo de consistência e checagem de erros, o método de compressão de dados, a forma

Page 34: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

34

como o dispositivo de envio indicará que a mensagem está terminada e a forma como o

dispositivo de recebimento indicará que recebeu a mensagem.

Provedor de acesso é uma empresa que provê acesso à Internet aos seus clientes através

da manutenção de uma central de linhas telefônicas exclusivas ligadas aos seus servidores

de serviços Internet.

Provedor de informação é uma empresa que provê informações variadas em seu website.

Referrer é a URL de uma página HTML que refere a um website.

Roteador ou router é um equipamento que conecta qualquer número de LANs e otimiza

o roteamento das conexões Internet.

Search engines são websites onde os internautas fazem buscas na Web a partir de

palavras-chave.

Senha é uma palavra qualquer escolhida pelo usuário que, em conjunto com o login, serve

para liberar o acesso do usuário à Internet ou a websites que porventura exijam senha

para entrada.

Servidor é o computador que administra e fornece programas e informações para os

computadores conectados em sua rede.

SET é a sigla para Secure Eletronic Transaction. É um padrão de segurança utilizado em

websites de comércio eletrônico.

SGML significa Standard Generalized Markup Language. É um sistema de "tags" que

permite que as especificações da linguagem sejam interpretadas por vários sistemas de

formas variadas, mas assegurando a formatação dos documentos Web.

Shareware é o nome dado aos vários programas de computador ou produtos de software

disponíveis na Internet para avaliação e uso gratuito por tempo limitado.

Shopping virtual é um website que agrupa websites de empresas que vendem produtos e

serviços na Internet.

Site é o conjunto de páginas ou lugar no ambiente Web da Internet que é ocupado com

informações (texto, fotos, animações gráficas, sons e até vídeos) de uma empresa ou de

uma pessoa. É também o diminutivo de website.

Page 35: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

35

Software é o nome dado para o conjunto ou tipo de programas, dados, rotinas e

ferramentas desenvolvidos para computadores. Os programas de software precisam ser

instalados nos computadores para que estes passem a desempenhar determinadas funções.

Incorretamente, algumas pessoas têm usado o termo "softwares" quando falam em mais

de um produto de software. Não existe plural para a palavra "software": "software" é

invariável, tal como "informática" em Português e "hardware", "shareware", "know-how",

etc. em Inglês.

Spam é o envio de e-mails comerciais não solicitados - um grave erro e fonte de

problemas na Internet.

Spider é um programa automatizado que faz buscas pela Internet.

Suporte ou suporte técnico é o serviço de apoio técnico disponibilizado pelo provedor aos

seus clientes de acesso à Internet.

Tags são comandos inseridos num documento que definem como o documento deve ser

formatado. Tags são usadas pelas especificações de formatação que armazenam

documentos como arquivos texto, incluindo SGML e HTML.

TCP/IP quer dizer Transmission Control Protocol/Internet Protocol (ou protocolo de

controle de transmissão/protocolo Internet). É o protocolo que satisfaz as necessidades

de um ambiente de redes de arquitetura aberta como a Internet.

Telnet é uma aplicação onde o internauta acessa um servidor remoto pela Internet.

UNIX é um sistema operacional de alta performance escrito em C (linguagem de alto

nível).

Upgrade é melhorar as condições de desempenho de micro-computadores, velocidade de

linha telefônica, etc.

URL significa Uniform Resouce Locator. Uma URL é um endereço virtual que indica

exatamente onde as informações da empresa ou da pessoa se encontram. A primeira

parte do endereço indica que protocolo está sendo usado e a segunda parte do endereço

especifica o domínio onde o recurso está localizado, no formato

http://www.domínio.tipododominio.sigladopaís.

Username significa nome do usuário.

Vírus é um programa de computador que foi desenvolvido intencionalmente para se

associar a outro programa de computador, de forma que quando este programa roda o

Page 36: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

36

programa do vírus também roda, replicando-se indefinidamente por associar-se a outros

programas.

VRML ou Virtual Reality Modeling Language é um padrão de programação que permite

modelagem e navegação em terceira dimensão na Web.

W3C significa World Wide Web Consortium e é a organização oficial para os padrões Web,

especialmente HTTP, HTML e XML. O W3C foi fundado em 1994 por Tim Berners-Lee,

considerado o inventor da Web.

WAN ou Wide Area Network é um sistema de LANs interconectadas através de linhas

telefônicas ou ondas de rádio.

WAP ou Wireless Application Protocol é uma especificação segura que permite aos

usuários acessar informações e a Internet através de equipamentos portáveis, móveis e

wireless como celulares e pagers.

Web é o ambiente multimídia Internet, também conhecido como WWW.

Webmaster é o profissional responsável por um ou mais Web sites.

Web site é um conjunto de páginas ou lugar no ambiente Web da Internet que é

ocupado com informações (texto, fotos, animações gráficas, sons e até vídeos) de uma

empresa ou de uma pessoa.

Wi-Fi é o nome (marca registrada) de uma tecnologia que permite a conexão sem fio e

de alta velocidade com a Internet através de ondas de rádio.

WWW significa World Wide Web e é o ambiente multimídia da Internet, a reunião de

texto, imagem, som, vídeo e movimento na Internet.

XML significa eXtensible Markup Language. É uma linguagem baseada em SGML que está

sendo desenvolvida pelo W3C para uso em páginas e documentos Web. XML é uma

linguagem mais funcional que HTML.

Lembre-se: você poderá voltar quantas vezes quiser nesta página do Dicionário. Basta

você querer! E se você quiser saber mais definições dos termos ligados à Internet e à

Informática, dê uma navegada pela Webopedia (da internet.com) e pela Acromania (da

ZDNet). Estão em inglês, mas são uma grande fonte de referência!

Page 37: Navegando na web

Navegando na web- Pietra Giovanna de Almeida

37

Bibliografia

http://www.aisa.com.br/historia.html