terça-feira, 28 de setembro de 2010

Napster

Napster, criado por Shawn Fanning, foi o programa de compartilhamento de arquivos em rede P2P que protagonizou o primeiro grande episódio na luta jurídica entre a indústria fonográfica e as redes de compartilhamento de música na internet. Compartilhando, principalmente, arquivos de música no formato MP3, o Napster permitia que os usuários fizessem o download de um determinado arquivo diretamente do computador de um ou mais usuários de maneira descentralizada, uma vez que cada computador conectado à sua rede desempenhava tanto as funções de servidor quanto as de cliente.

História

A primeira versão foi lançada na Internet em 1999. Seu criador visava facilitar a forma como obtinha músicas MP3 na Internet - nesta época, isso não era tarefa fácil, era preciso domínio de muitas ferramentas, esforço e sobretudo paciência. Foi então que Shawn Fanning teve a brilhante idéia: "Que bacana que seria se todo mundo pudesse compartilhar suas coleções de músicas e baixar novos arquivos MP3 diretamente nos computadores dos outros usuários".

O Napster começou a ganhar popularidade já no início de 2000 quando também veio a se tornar uma empresa. Novas versões eram lançadas mensalmente e o número de usuários quadruplicava todas as semanas. Em seu auge, em Janeiro de 2001, o Napster teve um pico de 8 milhões de usuários conectados trocando diariamente um volume estimado de 20 milhões de canções.

No início de 2001 não resistiu a uma série de ações legais e o serviço foi fechado em março. Várias companhias da industria fonográfica decidiram processar o serviço, acusando de promover a pirataria e possibilitar a troca de arquivos de áudio protegidos por direito autoral. Os servidores do Napster foram desligados após uma batalha judicial travada entre seus operadores e a Recording Industry Association of America (RIAA) e, em dezembro de 2002, foi comprado pelo grupo Roxio, fabricante de softwares para gravação de CD e DVD, e passou a vender as músicas arquivadas aos usuários. As grandes empresas da indústria fonográfica, como a Sony e a Warner acusaram o Napster de violar a Lei de Copyright, ajudando a disseminar ilegalmente arquivos protegidos por tal lei. A banda Metallica se declarou publicamente contra o Napster. O baterista da banda, Lars Ulrich, tomou a frente das acusações, movendo ações legais contra o software. Se no início do ano de 2001, artistas uniram-se à batalha contra o file sharing, no cenário musical era possível encontrar artistas com opinião contrária, defendendo a forma utilizada pelo público para consumo da música. Tom Morello, da banda Rage Against The Machine, é um exemplo. Quando a Sony, proprietária legal dos direitos de suas músicas, utilizou o Digital Millenium Copyright Act (DMCA), Lei dos Direitos Autorais do Milênio Digital, em português, para bloquear usuários que compartilhavam faixas do álbum Renegades por meio do Napster, Morello foi declarou-se totalmente ofendido com a decisão de sua gravadora, anunciando que outras faixas em MP3 estariam disponíveis para download na site da banda.

Mas a revolução não acabou e mudou a industria fonogáfica para sempre: isso porque novos programas que faziam o mesmo que o Napster surgiram no mesmo ano - Kazaa, eDonkey, Morpheus, Audiogalaxy.

Napster Network

Napster Network é uma rede de P2P,a primeira rede popularizada foi a utilizada pelo programa Napster e sendo encerrada em 2001. Foi criada uma rede paralela no final deste ano, chamada também de OpenNap. É importante frisar que o Napster atualmente é um serviço de compra de músicas pela Internet e possui uma estrutura cliente-servidor tradicional.

Mais recentemente o programa Napster adquiriu novos programadores como o novo programador de rede Miguel Guerreiro que se responsabiliza por toda a parte não só gráfica, mas também a parte de rede.

Legado

O Napster e o MP3 são associados a revolução da música digital que mudou a indústria da música para sempre. As gravadoras tiveram perdas massivas na vendas de álbuns em meio físico, ano após ano desde 2000. Foi então que a Apple começou a vender música em formato digital (AAC) pela iTunes Music Store por um preço abaixo do que os aplicados pelas gravadoras, começando a lucrar com negócio. Além de oferecer música online por um preço acessível, as primeiras interfaces da loja virtual de Steve Jobs era muito parecida com o próprio Napster. A semelhança ajudou que os usuários se adaptassem facilmente a nova forma de consumir música. Porém, na época, o que mais importava com esse novo negócio da Apple era a venda de seu tocador de música digital, o iPod. O player acompanhou a revolução na música digital; ao comprar uma música na iTunes Store, era muito fácil transferir os arquivos para o iPod. Mesmo com essas iniciativas de sucesso na comercialização de música digital online,ainda hoje é possível obter música em formato MP3 de forma ilegal e não autorizada através de aplicações como eMule e Bittorrent. O aplicativo Bit Torrent, muitas vezes confundido com o próprio torrent, é um dos mais conhecidos e utilizados para o compartilhamento de arquivos .torrent. Por permitir que arquivos maiores circulassem na rede, o torrent foi responsável por um episódio parecido ao acontecido com o Naspeter, a acusação do The Pirate Bay.

P2P

Peer-to-Peer (do inglês: par-a-par), entre pares (tradução livre ponto a ponto), é uma arquitetura de sistemas distribuídos caracterizada pela descentralização das funções na rede, onde cada nodo realiza tanto funções de servidor quanto de cliente.

Contexto

A demanda por serviços na Internet vem crescendo a uma escala que só pode ser limitada pelo tamanho da população mundial. Um dos objetivos dos sistemas peer-to-peer é permitir o compartilhamento de dados e recursos numa larga escala eliminando qualquer requisito por servidores gerenciados separadamente e a sua infra-estrutura associada. Sistemas peer-to-peer têm o propósito de suportar sistemas e aplicações distribuídas utilizando os recursos computacionais disponíveis em computadores pessoais e estações de trabalho em número crescente. Isso tem se mostrado bastante atrativo, já que a diferença de performance entre desktops e servidores tem diminuído, e as conexões de banda larga têm se proliferado.

Shirky definiu as aplicações P2P como "aplicações que exploram recursos disponíveis nas bordas da Internet - armazenamento, ciclos, conteúdo, presença humana"..

Geralmente, uma rede Peer-to-Peer é constituída por computadores ou outros tipos de unidades de processamento que não possuem um papel fixo de cliente ou servidor, pelo contrário, costumam ser considerados de igual nível e assumem o papel de cliente ou de servidor dependendo da transação sendo iniciada ou recebida de um outro par da mesma rede.

Os nós da rede Peer-to-Peer podem diferir em termos de configuração local, capacidade de processamento, capacidade de armazenamento, largura de banda, entre outras características particulares. O primeiro uso da expressão Peer-to-Peer foi em 1984, com o desenvolvimento do projeto Advanced Peer-to-Peer Networking Architecture na IBM.

Redes virtuais

O termo é utilizado em diferentes tecnologias que adotam um modelo conceitual Peer-to-PeerPortugal, conhecido como par-a-par), tal como o protocolo NNTP (para Usenet News), SMTP (para envio de mensagens eletrônicas - e-mail), e sistemas de troca de mensagens instantâneas (ICQ, MSN). Porém, o termo tornou-se popular com o surgimento de aplicações de compartilhamento de arquivo, em outras palavras, programas que possibilitam a distribuição de arquivos em rede, permitindo o acesso de qualquer usuário dessa rede a este recurso. Outros tipos de recursos podem ser compartilhados em redes Par-a-Par, tal como capacidade de processamento de máquinas, espaço de armazenamento de arquivos, serviços de programas (software, em inglês) - analogamente aos Web Services, entre outros. (em

Em 1999, Shawn Fanning criou o Napster, para compartilhamento de arquivos de música (principalmente MP3), e trouxe o conceito de Par-a-Par para a mídia, principalmente após tornar-se alvo de ataques jurídicos por parte das companhias fonográficas.

História do Peer-to-Peer

O P2P é o resultado da tendência natural do desenvolvimento de engenharia de software com a disponibilidade de tecnologia para a criação de redes maiores.

A tendência das últimas décadas tem crescido com a necessidade das aplicações empresariais, o que resultou na substituição dos sistemas monolíticos por sistemas distribuídos. As redes informáticas começaram a crescer, tornando-se cada vez maiores e mais poderosas, os utilizadores começaram a cada vez ser mais, a banda larga tornou-se cada vez mais barata e poderosa, sendo fácil de aceder. Neste campo houve a necessidade de ter a disponibilidade de pontos interligados, e quantos mais recursos houvesse, mais poderosa se tornava essa rede. A Internet foi um claro exemplo e uma explosão de utilizadores.

Enquanto as redes cresciam, as aplicações P2P desenvolveram-se e a sociedade interessava-se pelo P2P. Aplicações como o Napster, Gnutella e Kazaa ficaram famosos, porque estas colocaram um subconjunto da tecnologia P2P que estava ao alcance de milhares de utilizadores.

Na verdade o P2P surgiu da tecnologia básica que utilizaram nos tempos da USENET e da FidoNet. Eram duas redes totalmente descentralizadas, e sistemas como o DNS.

No inicio eram trabalhos que dois estudantes tinham na licenciatura. Não existia muita informação sobre a partilha, nem Internet como hoje em dia. Os arquivos eram trocados em batch nas linhas telefónicas, porque os computadores eram ligados por cabos coaxiais, não tendo muito mais que 10 computadores em cada rede, ligando-se por um terminador, passando virtualmente por cada nó. No entanto em 1979, como não havia maneira de centralizar, a USENET, era totalmente descentralizada sendo o criador Jim Ellis. (Será explicado mais á frente o que é). A FidoNet também era descentralizada, mas servia para troca de mensagens. Esta aplicação foi criada em 1984 por Tom Jennings para trocar mensagens de sistemas (BBS) diferentes.

O DNS tornou-se uma necessidade, porque em 1983 já existiam milhões de hosts na Internet. Na altura a forma de navegar na Internet era através de um ficheiro.txt, nomeado de hosts.txt. O nome "cin" era associado um determinado ip do ficheiro hosts.txt. Como a Internet cresceu, este sistema tornou-se impossível e foi então que surgiu o DNS.

O conceito de DNS é comparado às aplicações de ficheiros actuais.

Mas foi na década de 1990 que as redes P2P apareceram com toda a força, quando aplicações como o Napster e o Gnutella foram desenvolvidas. Cada nó neste tipo de rede é conhecido como peer, e pode servir com os mesmos direitos de cada peer da rede, serve tanto de cliente como de servidor. Os recursos e as informações passaram a ser disponibilizados de forma mundial. Estas redes tinham características, que quantos mais peers existissem mais escabilidade e mais autonomia tinham, e a rede tornava-se mais eficiente e mais rica em recursos com a comunicação directa que os peers tinham.

Distribuição Horizontal

A organização de uma aplicação cliente-servidor numa arquitetura multi-camadas distribui o processamento colocando componentes logicamente diferentes em máquinas diferentes. A essa distribuição se dá o nome de distribuição vertical. Uma distribuição vertical facilita o gerenciamento dos sistemas pois divide as funções lógica e fisicamente entre várias máquinas, onde cada máquina é responsável por um grupo especifico de funções.

Uma abordagem alternativa à distribuição vertical, bastante comum nas arquiteturas modernas, se baseia na distribuição dos clientes e dos servidores, o que se chama de distribuição horizontal. Nessa distribuição, um cliente ou um servidor pode estar fisicamente divididos em partes logicamente equivalentes, onde cada parte opera sobre a sua própria porção dos dados, o que balanceia a carga. Os sistemas peer-to-peer se baseiam na distribuição horizontal.

Olhando de uma perspectiva de alto nível, os processos que constituem um sistema peer-to-peer são todos iguais. Isso significa que as funções necessárias devem estar em todos os processos que constituem o sistema distribuído. Como consequência, a maior parte da interação entre os processos é simétrica: cada processo atua como um "cliente" e um "servidor" ao mesmo tempo.

Características

Sistemas peer-to-peer compartilham essas características:

  • O seu design garante que cada usuário contribui com recursos para o sistema.
  • Apesar de que eles podem diferir nos recursos que contribuem, todos os nodos em um sistema peer-to-peer possuem as mesmas capacidades funcionais e responsabilidades.

Descentralização

A correta operação de sistemas P2P não depende da existência de um sistema de administração centralizado. Assim, sistemas P2P se confudem com sistemas descentralizados. Num sistema totalmente descentralizado, não só todos os hospedeiros são iguais, mas também não há hospedeiros com atribuições especiais, como administração e descoberta de serviços. Na prática, construir sistemas totalmente descentralizados pode se tornar difícil, o que faz os projetistas geralmente adotarem paradigmas híbridos na construção de aplicações P2P. O DNS por exemplo, é um protocolo peer-to-peer, porém com um senso embutido de hierarquia. Há outros exemplos de sistemas P2P no seu núcleo e com alguma organização semi-centralizada, como o Napster e BitTorrent

[editar] Heterogeneidade

Em redes peer-to-peer, a heterogeneidade dos recursos envolvidos é uma preocupação que deve ser levada em conta durante o seu projeto. Computadores e conexões administrados por diferentes usuários e organizações não têm garantias de ficarem ligados, conectados ou sem falhas, o que os torna necessariamente recursos voláteis. Isso torna a disponibilidade dos nodos de uma rede peer-to-peer imprevisível. Essa imprevisibilidade não permite garantir acesso a recursos individuais, já que eles podem falhar. Para contornar isso, é possível lançar mão da técnica de replicação, diminuindo consideravelmente a probabilidade de falha ao acessar um objeto replicado. A replicação pode também tornar o sistema mais confiável se utilizada para neutralizar a ação de nodos maliciosos, que interceptam o sistema e corrompem os dados, através de técnicas de tolerância à falhas bizantinas.

Sistemas Híbridos

Os sistemas centralizados são simples de implementar e gerenciar, entretanto são um gargalo em potencial, uma vez que o servidor central tem capacidade limitada e pode não suportar o aumento da demanda. Por outro lado, os sistemas descentralizados são escaláveis e robustos, mas isso demanda certa complexidade de implementação, principalmente nas questões de tolerância à falhas e descoberta de recursos. Muitos sistemas distribuídos combinam características das duas arquiteturas, parte do sistema no tradicional modelo cliente-servidor e outra parte peer-to-peer.

Estruturas híbridas são implantadas notavelmente em sistemas distribuídos colaborativos. A principal preocupação em muitos desses sistemas é como se juntar ao sistema, para o qual muitas vezes um esquema tradicional cliente-servidor é adotado. Uma vez que o nodo se junta ao sistema, ele pode utilizar um esquema totalmente descentralizado para colaboração. Um exemplo de servidor que utiliza essa abordagem é o BitTorrent.

Para um usuário de um serviço de comunicação instantânea, a aplicação parece peer-to-peer ao enviar os dados diretamente ao amigo sendo contactado. Mas todos os serviços de comunicação instantânea possuem uma espécie de servidor por trás que facilita a comunicação entre os nodos. Por exemplo, o servidor mantém uma associação entre o nome do usuário e o seu endereço IP, grava mensagens quando o usuário está offline, e roteia mensagens para usuários que estão atrás de firewalls. Um sistema totalmente descentralizado de comunicaçao instantânea não iria funcionar na Internet de hoje, mas existem grandes vantagens de escalabilidade em pemitir comunicação cliente-cliente, quando possível. Assim, grande parte dos sistemas utiliza um esquema de diretório centralizado enquanto a função é distribuída.

Requisitos de uma Aplicação Peer-to-Peer

Para funcionar eficientemente, sistemas peer-to-peer devem se preocupar com os seguintes requisitos não-funcionais:

Escalabilidade global

Um dos objetivos das aplicações peer-to-peer é explorar os recursos de hardware de um grande número de hospedeiros conectados à Internet. Assim, essas aplicações devem ser projetadas de modo a suportar o acesso a milhões de objetos em dezenas ou centenas de milhares de hospedeiros.

cançado através da colocação aleatória de recursos, juntamente com a utilização de réplicas dos recursos mais utilizados.

Otimização de interações locais entre nodos vizinhos

A "distância de rede" entre os nós que interagem tem um impacto substancial na latência das interações individuais, como por exemplo, clientes requisitando acesso à recursos. A carga do tráfico da rede também é impactada por isso. As aplicações devem colocar os recursos perto dos nós que mais os utilizam.

Disponibilidade

A maioria dos sistemas peer-to-peer são constituídos de computadores hospedeiros que são livres para se juntar ou sair do sistema à qualquer hora. Além disso, os segmentos de rede utilizados nos sistemas peer-to-peer não são gerenciados por alguma autoridade; nem possuem garantias de qualidade de serviço. Um grande desafio para os sistemas peer-to-peer é prover um sistema confiável apesar desses fatos. Quando novos hospedeiros se juntam, eles devem ser integrados ao sistema e a carga deve ser redistribuída para explorar esses novos recursos. Quando eles saem do sistema voluntariamente ou involuntariamente, o sistema deve detectar a partida deles, e redistribuir as suas cargas e os seus recursos.

Segurança dos dados

Em sistemas de escala global com participantes de origens diversas, confiança deve ser construída com o uso de autenticação e mecanismos de criptografia para garantir a privacidade dos dados e da informação.

Anonimidade, negabilidade e resistência à censura

Anonimidade é uma preocupação legitima em muitas situações que demandam resistência à censura. Um requisito relacionado é que hospedeiros que guardam dados devem ser capazes de negar plausivelmente a responsabilidade sobre a posse e o suprimento deles. A utilização de um grande número de hospedeiros em sistemas peer-to-peer pode ser útil em alcançar essas propriedades.

Redes P2P estruturadas e não-estruturadas

Rede Sobreposta

Um conceito importante do paradigma P2P é a rede sobreposta, ou rede overlay. Na rede overlay, os nós são formados pelos processos e os enlaces são representados pelos possíveis canais de comunicação (que são tipicamente conexões TCP). No geral, um processo não pode se comunicar diretamente com outro processo arbitrário, mas só pode enviar mensagens através dos canais de comunicação disponíveis. Nesse sentido, cada nó possui um conjunto de vizinhos, que por sua vez possuirão outros conjuntos de vizinhos. A figura abaixo ilustra a rede sobreposta sobre a camada de rede (p.e. Internet). Observe que dois nós que são vizinhos na rede overlay não são necessariamente vizinhos na rede física.


Rede overlay P2P

A localização de nós e objetos é realizado na rede overlay através de um algoritmo de roteamento distribuído. Esse algoritmo é implementado sobre a camada de aplicação, não tendo nenhuma ligação com o roteamento implementado pelos roteadores da camada de rede. Através desse algoritmo que as requisições dos cliente são roteadas para um hospedeiro que possui o objeto pela qual a requisição está endereçada. Os objetos de interesse são colocados e relocados em qualquer nó na rede sem o envolvimento do cliente.

O roteamento garante que qualquer nó pode acessar qualquer objeto na rede overlay, explorando o conhecimento de cada nó na rede para localizar o objeto de destino. Sistemas peer-to-peer geralmente armazenam múltiplas réplicas de um mesmo objeto para garantir disponibilidade. Dessa forma, o algoritmo de roteamento mantém o mínimo de informação possível sobre a localização de todas as réplicas, e envia as requisições para o nó "vivo" (p.ex. não falho) mais próximo que mantém uma cópia do objeto relevante. Existem basicamente dois tipos de redes sobrepostas: as redes estruturadas e as redes não-estruturadas. Esses dois tipos de rede são discutidos extensivamente em.

Arquiteturas Peer-to-Peer Estruturadas

Numa rede peer-to-peer estruturada, a rede sobreposta é construída através de um procedimento determinístico. O procedimento mais utilizado, de longe, é organizar os processos através de uma tabela hash distribuída (DHT). Num sistema baseado em DHTs, os dados recebem uma chave aleatória de um extenso espaço de identificadores, tipicamente um identificador de 128 ou 160 bits. Os nodos da rede também recebem um identificador do mesmo espaço. O grande desafio num sistema baseado em DHT é implementar um esquema eficiente e determinístico que mapeia unicamente a chave de um ítem para o identificador do nodo responsável pelo ítem desejado. A partir disso, é possível retornar o endereço de rede do nodo responsável pelo ítem desejado, que pode ser contactado diretamente.

Várias implementações e protocolos baseados em DHT foram desenvolvidos. Dentre eles, as mais populares são o Chord. NodeWiz é um serviço de descoberta em grids (GIS) que utiliza uma estrutura de árvores para organizar os seus nós na rede sobreposta. Para tal, cada nó na árvore é responsável por um subespaço do espaço completo dos atributos. Assim, é possível realizar eficientemente consultas por faixas de valores, ao contrário do que acontece na DHT, onde as consultas se dão por valores exatos.

Arquiteturas Peer-to-Peer Não-Estruturadas

Sistemas peer-to-peer não-estruturados geralmente se baseiam em algoritmos aleatorizados para a construção da rede sobreposta. A idéia principal é que cada nó mantenha uma lista de vizinhos, que é construída mais ou menos de forma aleatória. Da mesma forma, se assume que os dados são colocados de forma aleatória nos nodos. Assim, quando um nó necessita localizar um ítem específico, a única coisa que pode fazer é inundar a rede com uma busca. Uma desvantagem desse tipo de busca é que consultas podem não ser respondidas caso o cliente e o hospedeiro estejam muito afastados na rede. Isso acontece, devido a mecanismos que impedem que mensagens se propaguem indefinidamente na rede (p. ex. TTL). Outra desvantagem é que mecanismos de inundação geralmente causam grande tráfico de sinalização, o que, muitas vezes, torna esse tipo de busca lenta.

Muitos sistemas peer-to-peer não-estruturados constroem redes sobrepostas que remetem a um grafo aleatório. O modelo básico é que cada nó mantém uma lista com c vizinhos, onde, idealmente cada um desses vizinhos representa um nodo escolhido aleatoriamente dentre o conjunto dos nodos "vivos". Essa lista de nós pode ser chamada de visão parcial. Dentre os sistemas P2P que utilizam arquiteturas não-estruturadas podemos citar o BitTorrent que constrói sua overlay de forma aleatória, as Content Delivery Networks (CDNs), e o Gnutella.

Plataformas, Frameworks e Aplicações Peer-to-Peer

Inicialmente, as aplicações Peer-to-Peer surgiram monolíticas, ou seja, o programa precisava implementar seu próprio protocolo de comunicação Peer-to-Peer para permitir a interoperabilidade entre os nós constituintes do seu sistema em rede. Porém, além de um grande re-trabalho, estes esforços em requisitos não-funcionais das aplicações implicavam na impossibilidade de comunicação entre sistemas diferentes, mesmo que os serviços providos por eles fossem equivalentes. Por exemplo, arquivos compartilhados em sistemas como o Kazaa, eMule e Gnutella ficam acessíveis exclusivamente dentro de suas próprias redes, levando usuários a manterem instalados em suas máquinas clientes para cada um dos sistemas de compartilhamento de arquivos que pretenda usar.

Com a popularização deste tipo de aplicação, surgiu um esforço em prover plataformas para desenvolvimento de aplicações Peer-to-Peer, de tal maneira que estas possam comunicar-se entre si. Entre elas, destacam-se o JXTA, o Windows Peer-to-Peer Networking e o XNap.

O JXTA e o Windows Peer-to-Peer Networking são especificações de protocolos Peer-to-Peer e de uma API para utilização dos serviços, sendo o primeiro com implementações em Java e em C.

O XNap provê, além de uma API de serviços Peer-to-Peer, também um framework para desenvolvimento das aplicações em si, incluindo recursos de interface gráfica com o usuário. Um Framework Peer-to-Peer, portanto, vai além de uma plataforma para comunicação Peer-to-Peer, provendo serviços adicionais não necessariamente relacionados com a comunicação em si, mas indispensáveis para o desenvolvimento rápido de aplicações baseadas nesta arquitetura.

Outros exemplos de frameworks para desenvolvimento de aplicações Peer-to-Peer são o OogDuke University), o Lancaster´s P2P Framework (University of Lancaster) e o COPPEERUFRJ), sendo os dois últimos abstrações construídas sobre o JXTA. ( (

Kademlia

Kademlia é conceito de rede altamente descentralizada baseada em "nós" de rede. Os próprios usuários constituem a estrutura da rede dispensando servidores. Várias redes utilizam o conceito Kademlia.

Overnet

A rede Overnet é uma espécie de eDonkey "paga". É preciso comprar o programa da empresa que a desenvolveu. É uma variante do eDonkey totalmente descentralizada e mais rápida seguindo o conceito Kademlia e foi a primeira implementação da mesma.

Gnutella

Rede open-source surgida no final de 2000 utilizada inicialmente por usuários do sistema Linux. Possui uma estrutura altamente descentralizada não havendo mesmo nenhum servidor central sequer. Os usuários constituem a estrutura da própria rede. Entre os programas que a utilizam, estão o BearShare , LimeWire, Azureus e agora o Shareaza.

Gnutella 2

Segundo projeto da rede Gnutella mas agora com servidores centrais optimizando buscas e o desempenho geral da rede. É conhecida principalmente no programa Shareaza. Recebeu críticas quando foi criada pelos criadores da Gnutella original.

Kad Network

Rede paralela do programa eMule introduzida pelo autor deste em 2004; é uma implementação fiel ao conceito Kademlia. Essa rede tinha por objetivo inicial oferecer mais fontes aos usuários do programa e mais tarde se tornar uma rede P2P completa.

OpenFT

OpenFT é um protocolo desenvolvido pelo projeto giFT. O nome "OpenFT" significa "Open FastTrack". Entretanto, o OpenFT é um protocolo completamente novo, apenas algumas poucas vieram do pouco que se sabia sobre a FastTrack quando o OpenFT foi desenvolvido. Assim como a FastTrack, o OpenFT é uma rede onde nodos enviam listas de arquivos compartilhados para outros nodos. Isso reduz o consumo de banda necessário para a pesquisa, entretanto, consumindo mais recursos do processador e mémoria nos nodos.

AudioGalaxy

Projeto antigo da empresa de mesmo nome, o Audiogalaxy centralizava todo o seu acervo indexando-o em seu sítio oficialmente. Foi facilmente fechada por um processo judicial na Inglaterra. Era uma implementação de FTPs sendo mais superficial ao usuário.

SoulSeek

Rede introduzida para trocas de músicas em 2000. Utiliza programa de mesmo nome. Caracteriza-se pelo fato de ter um grande número de arquivos raros, e principalmente música alternativa. O programa cliente tem uma interface simplificada, e permite a adição de usuários em uma hotlist, ou seja, uma lista de contatos que permite saber quando um usuário que tem arquivos relevantes está conectado à rede. Também há na rede SoulSeek um serviço de bate-papo (chat) parecido com o IRC, que possibilita uma melhor interação entre os usuários, que também podem criar seus próprios canais de chat.

DNS

O DNS (Domain Name System - Sistema de Nomes de Domínios) é um exemplo de sistema que mistura os conceitos de rede peer-to-peer com um modelo hierárquico de posse da informação. O mais incrível do DNS é quão bem ele tem escalado, dos poucos milhares de hospedeiros que ele foi projetado para suportar, em 1983, para as centenas de milhões de hospedeiros atualmente na Internet. Os problemas encontrados pelas aplicações P2P atuais, tais como compartilhamento de arquivos, são os mesmos problemas que foram resolvidos pelo DNS há 10 ou 15 anos atrás. Assim, vários elementos-chave no projeto do DNS são replicados nos sistemas distribuídos atuais. Um elemento é que hospedeiros podem operar tanto como clientes quanto como servidores. O segundo elemento é um método natural de propagar as requisições de dados pela rede. A carga é naturalmente distribuída pela rede, tanto que qualquer servidor individual de nomes só precisa servir as demandas dos seus clientes e o espaço de nomes que ele gerencia.

Torrent

BitTorrent é um sistema de download de arquivos P2P. A idéia basica é que quando um usuário procura por um arquivo, ele baixa "pedaços" do arquivo de outros usuários até que o arquivo fique completo. Um importante objetivo de projeto foi garantir colaboração. Na maioria dos sistemas de compartilhamento de arquivo, uma fração significante dos usuários somente baixa os arquivos e contribuem perto de nada. Para isso, um arquivo pode ser baixado somente quando o cliente que está baixando também está provendo conteúdo para alguém.

Redes, protocolos e aplicativos

Direitos Autorais

  • As redes P2P são acusadas no mundo todo de ferir os direitos autorais, por disponibilizar arquivos sem a autorização dos proprietários do copyright. Muitos usuários destas redes P2P defendem que a ausência de lucro na reprodução do copyright não deveria ser criminalizado. No Brasil, a lei dos direitos autorais, proíbe qualquer tipo de reprodução de conteúdo protegido que não seja autorizado (art. 105).

Caso do Napster

Os desenvolvedores do Napster argumentaram que eles não eram culpados pelo infrigimento dos direitos autorais porque eles não participavam do processo de cópia, que foi interamente realizado por máquinas de usuários. Esse argumento foi derrubado porque os servidores de indexação foram anexados como parte essencial do processo. Como esses servidores eram localizados em endereços conhecidos, os seus operadores foram incapazes de se manterem anônimos e então se tornaram alvos dos processos.

Um sistema de compartilhamento mais distribuído teria alcançado uma maior separação legal de responsabilidades, distribuindo a responsabilidade entre todos os usuários do Napster, e tornando o processo muito difícil, senão impossível.

Qualquer que seja a visão que alguém tenha sobre a legitimidade de cópia de arquivos para o propósito de compartilhamento de material protegido por direitos autorais, existe uma legítima justificativa social e política para a anonimidade de clientes e servidores em alguns contextos de aplicações. A justificativa mais persuativa é usada quando anonimidade é utilizada para superar censura e manter a liberdade de expressão para indivíduos em sociedades e organizações opressivas.

segunda-feira, 27 de setembro de 2010

3GPP

3rd Generation Partnership Project é uma tecnologia que visa padronizar a criação, envio e reprodução de arquivos multimídia (vídeos) em telefones celulares e outros aparelhos wirelessGSM.
História

O projeto foi criado em dezembro de 1998 por cinco empresas de tecnologia móvel, a ETSI (Europa), ARIB/TTC (Japão), CCSA (China), ATIS (América do Norte) e TTA (Coréia do Sul).
Características

Este tipo de arquivo é uma versão mais simples do ISO 14496-1, MPEG-4) Media Format", muito similar aos arquivos MOV do Apple Quicktime.

Assim como arquivos AVI ou MPEG, o 3GPP pode ser codificado em mais de um tipo de codec - para vídeo pode-se usar MPEG-4 ou H.263 e para áudio os formatos AMR ou AAC-LC.

A tendência dos aparelhos de 3ª geração, nova conexão de alta velocidade, baseada na tecnologia CDMA é usar a dupla MPEG-4/AAC-LC, versão avançada do MPEG-2. Aparelhos como o Nokia n90 já são capazes de gravar vídeos com codec MPEG-4/AAC-LC de 352 x 288, qualidade similar a fitas de vídeo-cassete.

A tecnologia de envio de vídeos é o MMS (que suporta vídeos de até 300kb/11 segundos na qualidade mais baixa), que depende de disponibilidade de rede. Há também as conexões independentes de rede, como o Infravermelho (IrDA), Bluetooth ou cabos USB.

O tamanho em pixels dos arquivos 3GPP são 128x96 (subQCIF), 176x144 (QCIF) e 352x288 (CIF).

A tecnologia CDMA2000 (CDMA1xRTT) de 2,5G usa como padrão arquivos 3GPP2. A 3ª geração (3G) de comunicação móvel é toda baseada em CDMA (CDMA-EVDO e W-CDMA), mas o formato padrão provavelmente será MPEG-4. O W-CDMA não é compatível com o cdmaOne ou CDMA2000.

IEEE 802.11

As redes sem fio IEEE 802.11, que também são conhecidas como redes Wi-Fi (Wireless Fidelity ⇐ este termo que designa o suposto significado de Wi-Fi entra em contradição com o artigo Wi-Fi) ou wireless, foram uma das grandes novidades tecnológicas dos últimos anos. Atualmente, são o padrão de facto em conectividade sem fio para redes locais. Como prova desse sucesso pode-se citar o crescente número de Hot Spots e o fato de a maioria dos computadores portáteis novos já saírem de fábrica equipados com interfaces IEEE 802.11.

Os Hot Spots, presentes nos centros urbanos e principalmente em locais públicos, tais como Universidades, Aeroportos, Hotéis, Restaurantes etc., estão mudando o perfil de uso da Internet e, inclusive, dos usuários de computadores.

O padrão divide-se em várias partes, que serão apresentadas a seguir.

Cronologia

  • 1955: o Federal Communications Commission (FCC), órgão americano responsável pela regulamentação do uso do espectro de frequências, autorizou o uso de três faixas de frequência;
  • 1990: o Institute of Electrical and Electronics Engineers (IEEE) instaurou um comitê para definição de um padrão para conectividade sem fio;
  • 1997: após sete anos de pesquisa e desenvolvimento, o comitê de padronização da IEEE aprovou o padrão IEEE 802.11; nessa versão inicial, as taxas de transmissão nominais atingiam 1 e 2 Mbps;
  • 1999: foram aprovados os padrões IEEE 802.11b e 802.11a, que usam as frequências de 2,4 e 5 GHz e são capazes de atingir taxas nominais de transmissão de 11 e 54 Mbps, respectivamente. O padrão 802.11b, apesar de atingir taxas de transmissão menores, ganhou fatias maiores de mercado do que 802.11a; as razões para isso foram basicamente duas: primeiro, as interfaces 802.11b eram mais baratas do que as 802.11a e, segundo, as implementações de 802.11b foram lançadas no mercado antes do que as implementações de 802.11a. Além disso, nesse ano foi criada a Wireless Ethernet Compatibility Alliance (WECA), que se organizou com o objetivo de garantir a interoperabilidade entre dispositivos de diferentes fabricantes;
  • 2000: surgiram os primeiros hot spots, que são áreas públicas onde é possível acessar a Internet por meio das redes IEEE 802.11. A WECA lançou o selo Wireless Fidelity (Wi-Fi) para testar a adesão dos fabricantes dos produtos às especificações; mais tarde o termo Wi-Fi tornou-se um sinônimo de uso abrangente das tecnologias IEEE 802.11;
  • 2001: a companhia americana de cafeterias Starbucks implementou hot spots em sua rede de lojas. Os pesquisadores Scott Fluhrer, Itsik Mantin e Adi Shamir demonstraram que o protocolo de segurança Wired Equivalent Privacy (WEP) é inseguro;
  • 2002: a WECA passou a se chamar Wi-Fi Alliance (WFA) e lançou o protocolo Wi-Fi Protected Access (WPA) em substituição ao protocolo WEP;
  • 2003: o comitê de padronização da IEEE aprovou o padrão IEEE 802.11g que, assim como 802.11b, trabalha na frequência de 2,4 GHz, mas alcança até 54 Mbps de taxa nominal de transmissão. Aprovou também, sob a sigla IEEE 802.11f, a recomendação de práticas para implementação de handoff;
  • 2004: a especificação 802.11i aumentou consideravelmente a segurança, definindo melhores procedimentos para autenticação, autorização e criptografia;
  • 2005: foi aprovada a especificação 802.11e, agregando qualidade de serviço (QoS) às redes IEEE 802.11. Foram lançados comercialmente os primeiros pontos de acesso trazendo pré-implementações da especificação IEEE 802.11e;
  • 2006: surgiram as pré-implementações do padrão 802.11n, que usa múltiplas antenas para transmissão e recepção, Multiple-Input Multiple-Output (MIMO), atingindo taxa nominal de transmissão de até 600 Mbps.

802.11a

Chega a alcançar velocidades de 54 Mbps dentro dos padrões da IEEE e de 72 a 108 Mbps por fabricantes não padronizados. Esta rede opera na frequência de 5 GHz e inicialmente suporta 64 utilizadores por Ponto de Acesso (PA). As suas principais vantagens são a velocidade, a gratuidade da frequência que é usada e a ausência de interferências. A maior desvantagem é a incompatibidade com os padrões no que diz respeito a Access Points 802.11 b e g, quanto a clientes, o padrão 802.11a é compatível tanto com 802.11b e 802.11g na maioria dos casos, já se tornando padrão na fabricação dos equipamentos.

802.11b

Alcança uma velocidade de 11 Mbps padronizada pelo IEEE e uma velocidade de 22 Mbps, oferecida por alguns fabricantes não padronizados. Opera na frequência de 2.4 GHz. Inicialmente suporta 32 utilizadores por ponto de acesso. Um ponto negativo neste padrão é a alta interferência tanto na transmissão como na recepção de sinais, porque funcionam a 2,4 GHz equivalentes aos telefones móveis, fornos micro ondas e dispositivos Bluetooth. O aspecto positivo é o baixo preço dos seus dispositivos, a largura de banda gratuita bem como a disponibilidade gratuita em todo mundo. O 802.11b é amplamente utilizado por provedores de internet sem fio.

802.11d

Habilita o hardware de 802.11 a operar em vários países aonde ele não pode operar hoje por problemas de compatibilidade, por exemplo, o IEEE 802.11a não opera na Europa. g

802.11e

O 802.11e agrega qualidade de serviço (QoS) às redes IEEE 802.11. Neste mesmo ano - 2005 - foram lançados comercialmente os primeiros pontos de acesso trazendo pré-implementações da especificação IEEE 802.11e. Em suma, 802.11e permite a transmissão de diferentes classes de tráfego, além de trazer o recurso de Transmission Oportunity (TXOP), que permite a transmissão em rajadas, otimizando a utilização da rede.

802.11f

Recomenda prática de equipamentos de WLAN para os fabricantes de tal forma que os Access Points (APs) possam interoperar. Define o protocolo IAPP (Inter-Access-Point Protocol).

802.11g

Baseia-se na compatibilidade com os dispositivos 802.11b e oferece uma velocidade de 54 Mbps. Funciona dentro da frequência de 2,4 GHz. Tem os mesmos inconvenientes do padrão 802.11b (incompatibilidades com dispositivos de diferentes fabricantes). As vantagens também são as velocidades. Usa autenticação WEP estática já aceitando outros tipos de autenticação como WPA (Wireless Protect Access) com criptografia dinâmica (método de criptografia TKIP e AES). Torna-se por vezes difícil de configurar, como Home Gateway devido à sua frequência de rádio e outros sinais que podem interferir na transmissão da rede sem fio.

802.11h

Versão do protocolo 802.11a (Wi-Fi) que vai ao encontro com algumas regulamentações para a utilização de banda de 5 GHz na Europa. O padrão 11h conta com dois mecanismos que optimizam a transmissão via rádio: a tecnologia TPC permite que o rádio ajuste a potência do sinal de acordo com a distância do receptor; e a tecnologia DFS, que permite a escolha automática de canal, minimizando a interferência em outros sistemas operando na mesma banda.

802.11i

Criado para aperfeiçoar as funções de segurança do protocolo 802.11 seus estudos visam avaliar, principalmente, os seguintes protocolos de segurança:

  • Wired Equivalent Protocol (WEP)
  • Temporal Key Integrity Protocol (TKIP)
  • Advanced Encryption Standard (AES)
  • IEEE 802.1x para autenticação e segurança

O grupo de trabalho 802.11i vem trabalhando na integração do AES com a sub camada MAC, uma vez que o padrão até então utilizado pelo WEP e WPA, o RC4, não é robusto o suficiente para garantir a segurança das informações que circulam pelas redes de comunicação sem fio.

O principal benefício do projeto do padrão 802.11i é sua extensibilidade permitida, porque se uma falha é descoberta numa técnica de criptografia usada, o padrão permite facilmente a adição de uma nova técnica sem a substituição do hardware.

Fonte: CHOC, TED et al. Wireless Local Area Network (WLAN) Security – The 802.11i Solution, 2004. Disponível em documento pdf último acesso: Fevereiro/2006.

802.11j

Diz respeito as bandas que operam as faixas 4.9 GHz e 5 GHz, disponíveis no Japão.

802.11k

Possibilita um meio de acesso para Access Points (APs) transmitir dados de gerenciamento.

O IEEE 802.11k é o principal padrão da indústria que está agora em desenvolvimento e permitirá transições transparentes do Conjunto Básico de Serviços (BSS) no ambiente WLAN. Esta norma fornece informações para a escolha do melhor ponto de acesso disponível que garanta o QoS necessário.

802.11n

O IEEE aprovou oficialmente a versão final do padrão para redes sem fio 802.11n. Vários produtos 802.11n foram lançados no mercado antes de o padrão IEEE 802.11n ser oficialmente lançado, e estes foram projetados com base em um rascunho (draft) deste padrão. Há a possibilidade de equipamentos IEEE 802.11n que chegaram ao mercado antes do lançamento do padrão oficial serem incompatíveis com a sua versão final. Basicamente todos os equipamentos projetados com base no rascunho 2.0 serão compatíveis com a versão final do padrão 802.11n. Além disso, os equipamentos 802.11n possivelmente precisarão de um upgrade de firmware para serem 100% compatíveis com o novo padrão. As principais especificações técnicas do padrão 802.11n incluem: - Taxas de transferências disponíveis: de 65 Mbps a 600 Mbps. - Método de transmissão: MIMO-OFDM - Faixa de freqüência: 2,4 GHz e/ou 5 GHz

802.11p

Utilizado para implementação veicular á nitro.

802.11r

Padroniza o hand-off rápido quando um cliente wireless se reassocia quando estiver se locomovendo de um ponto de acesso para outro na mesma rede.

802.11s

Padroniza "self-healing/self-configuring" nas Redes Mesh (malha)

802.11t

Normas que provém métodos de testes e métricas.

802.11u

Interoperabilidade com outras redes móveis/celular.

802.11v

Permitir a configuração de dispositivos clientes conectados a redes 802.11. O padrão pode incluir paradigmas de gerência similares aos utilizados em redes celulares.

802.11x

Não usado devido a confusão com o 802.1x

desliga o sistema

802.11w

Aumentar a segurança da transmissão dos pacotes de camada física.

802.11z

Habilitar o equipamento Wi-fi para operar com a frequência entre 3650 a 3700 MHz somente nos Estados Unidos.


sábado, 25 de setembro de 2010

Ethernet Comutada (Switched Ethernet)

A maioria das instalações modernas de Ethernet usam switches Ethernet em vez de hubs. Embora o cabeamento seja idêntico ao de uma Ethernet com hub (Ethernet Compartilhada), com switches no lugar dos hubs, a Ethernet comutada tem muitas vantagens sobre a Ethernet média, incluindo maior largura de banda e cabeamento simplificado. Mas a maior vantagem é restringir os domínios de colisão, o que causa menos colisão no meio compartilhado causando uma melhor performace na rede. Redes com switches tipicamente seguem uma topologia em estrela, embora elas ainda implementem uma "nuvem" única de Ethernet do ponto de vista das máquinas ligadas.

Switch Ethernet "aprende" quais são as pontas associadas a cada porta, e assim ele pára de mandar tráfego não-broadcast para as demais portas a que o pacote não esteja endereçado, isolando os domínios de colisão. Desse modo, a comutação na Ethernet pode permitir velocidade total de Ethernet no cabeamento a ser usado por um par de portas de um mesmo switch.

Já que os pacotes são tipicamente entregues somente na porta para que são endereçadas, o tráfego numa Ethernet comutada é levemente menos público que numa Ethernet de mídia compartilhada. Contudo, como é fácil subverter sistemas Ethernet comutados por meios como ARP spoofing e MAC flooding, bem como por administradores usando funções de monitoramento para copiar o tráfego da rede, a Ethernet comutada ainda é considerada como uma tecnologia de rede insegura.

Tipos de quadro Ethernet e o campo EtherType

Há quatro tipos de quadro Ethernet :

Os tipos diferentes de frame têm formatos e valores de MTU diferentes, mas podem coexistir no mesmo meio físico.

A Ethernet Versão 1 original da Xerox tinha um campo de comprimento de 16 bits, embora o tamanho máximo de um pacote fosse 1500 bytes. Esse campo de comprimento foi logo reusado na Ethernet Versão 2 da Xerox como um campo de rótulo, com a convenção de que valores entre 0 e 1500 indicavam o uso do formato Ethernet original, mas valores maiores indicavam o que se tornou conhecido como um EtherType, e o uso do novo formato de frame. Isso agora é suportado nos protocolos IEEE 802 usando o header SNAP.

O IEEE 802.x definiu o campo de 16 bits após o endereço MAC como um campo de comprimento de novo. Como o formato de frames do Ethernet I não é mais usado, isso permite ao software determinar se um frame é do Ethernet II ou do IEEE 802.x, permitindo a coexistência dos dois padrões no mesmo meio físico. Todos os frames 802.x têm um campo LLC. Examinando o campo LLC, é possível determinar se ele é seguido por um campo SNAP.

As variantes 802.x de Ethernet não são de uso geral em redes comuns. O tipo mais comum usado hoje é a Ethernet Versão 2, já que é usada pela maioria das redes baseadas no Protocolo da Internet, com seu EtherType setado em 0x0800. Existem técnicas para encapsular tráfego IP em frames IEEE 802.3, por exemplo, mas isso não é comum.

Variedades de Ethernet

Além dos tipos de frames mencionados acima, a maioria das diferenças entre as variedades de Ethernet podem ser resumidas em variações de velocidade e cabeamento. Portanto, em geral, a pilha do software de protocolo de rede vai funcionar de modo idêntico na maioria dos tipos a seguir.

As seções seguintes provêem um breve sumário de todos os tipos de mídia Ethernet oficiais. Em adição a esses padrões, muitos fabricantes implementaram tipos de mídia proprietários por várias razões, geralmente para dar suporte a distâncias maiores com cabeamento de fibra ótica.

Algumas variedades antigas de Ethernet

  • Xerox Ethernet -- a implementação original de Ethernet, que tinha 2 versões, Versão 1 e Versão 2, durante seu desenvolvimento. O formato de frame da versão 2 ainda está em uso comum.
  • 10BASE5 (também chamado Thicknet) -- esse padrão antigo da IEEE usa um cabo coaxial simples em que você conseguia uma conexão literalmente furando o cabo para se conectar ao núcleo. É um sistema obsoleto, embora devido a sua implantação largamente difundida antigamente, talvez ainda possa ser utilizado por alguns sistemas.
  • 10BROAD36 -- Obsoleto. Um padrão antigo suportando Ethernet para distâncias mais longas. Utilizava técnicas de modulação de banda larga similares àquelas empregadas em sistemas de cable modem, e operava com cabo coaxial.
  • 1BASE5 -- Uma tentativa antiga de padronizar uma solução de LAN de baixo custo, opera a 1 Mbit/s e foi um fracasso comercial.
  • StarLAN 1—A primeira implementação de Ethernet com cabeamento de par trançado.

10 Mbit/s Ethernet

  • 10BASE2 (também chamado ThinNet ou Cheapernet) -- Um cabo coaxial de 50-ohm conecta as máquinas, cada qual usando um adaptador T para conectar seu NIC. Requer terminadores nos finais. Por muitos anos esse foi o padrão dominante de ethernet de 10 Mbit/s.
  • 10BASE5 (também chamado Thicknet) -- Especificação Ethernet de banda básica de 10 Mbps, que usa o padrão (grosso) de cabo coaxial de banda de base de 50 ohms. Faz parte da especificação de camada física de banda de base IEEE 802.3, tem um limite de distância de 500 metros por segmento.
  • StarLAN 10—Primeira implementação de Ethernet em cabeamento de par trançado a 10 Mbit/s. Mais tarde evoluiu para o 10BASE-T.
  • 10BASE-T -- Opera com 4 fios (dois conjuntos de par trançado) num cabo de cat-3 ou cat-5. Um hub ou switch fica no meio e tem uma porta para cada nó da rede. Essa é também a configuração usada para a ethernet 100BASE-T e a Gigabit.
  • FOIRL -- Link de fibra ótica entre repetidores. O padrão original para ethernet sobre fibra.
  • 10BASE-F -- um termo genérico para a nova família de padrões de ethernet de 10 Mbit/s: 10BASE-FL, 10BASE-FB e 10BASE-FP. Desses, só o 10BASE-FL está em uso comum (todos utilizando a fibra óptica como meio físico).
  • 10BASE-FL -- Uma versão atualizada do padrão FOIRL.
  • 10BASE-FB -- Pretendia ser usada por backbones conectando um grande número de hubs ou switches, agora está obsoleta.
  • 10BASE-FP -- Uma rede passiva em estrela que não requer repetidores, nunca foi implementada.

Fast Ethernet

  • 100BASE-T -- Designação para qualquer dos três padrões para 100 Mbit/s ethernet sobre cabo de par trançado.

Inclui 100BASE-TX, 100BASE-T4 e 100BASE-T2.

  • 100BASE-TX -- Usa dois pares, mas requer cabo cat-5.

Configuração "star-shaped" idêntica ao 10BASE-T. 100Mbit/s.

  • 100BASE-T4 -- 100 Mbit/s ethernet sobre cabeamento cat-3 (Usada em instalações 10BASE-T).

Utiliza todos os quatro pares no cabo. Atualmente obsoleto, cabeamento cat-5 é o padrão. Limitado a Half-Duplex.

100 Mbit/s ethernet sobre cabeamento cat-3. Suporta full-duplex, e usa apenas dois pares. Seu funcionamento é equivalente ao 100BASE-TX, mas suporta cabeamento antigo.

  • 100BASE-FX -- 100 Mbit/s ethernet sobre fibra óptica. Usando fibra ótica multimodo 62,5 mícrons tem o limite de 400 metros.

Gigabit Ethernet

  • 1000BASE-T -- 1 Gbit/s sobre cabeamento de cobre categoria 5e ou 6.
  • 1000BASE-SX -- 1 Gbit/s sobre fibra.
  • 1000BASE-LX -- 1 Gbit/s sobre fibra. Otimizado para distâncias maiores com fibra mono-modo.
  • 1000BASE-CX -- Uma solução para transportes curtos (até 25m) para rodar ethernet de 1 Gbit/s num cabeamento especial de cobre. Antecede o 1000BASE-T, e agora é obsoleto.

[editar] 10-Gigabit Ethernet (Ethernet 10 Gigabit)

O novo padrão Ethernet de 10 gigabits abrange 7 tipos diferentes de mídias para uma LAN, MAN e WAN. Ele está atualmente especificado por um padrão suplementar, IEEE 802.3ae, e será incorporado numa versão futura do padrão IEEE 802.3.

  • 10GBASE-SR -- projetado para suportar distâncias curtas sobre cabeamento de fibra multi-modo, variando de 26m a 82m dependendo do tipo de cabo. Suporta também operação a 300m numa fibra multi-modo de 2000 MHz.
  • 10GBASE-LX4 -- usa multiplexação por divisão de comprimento de ondas para suportar distâncias entre 240m e 300m em cabeamento multi-modo. Também suporta 10 km com fibra mono-modo.
  • 10GBASE-LR e 10GBASE-ER -- esses padrões suportam 10 km e 40 km respectivamente sobre fibra mono-modo.
  • 10GBASE-SW, 10GBASE-LW e 10GBASE-EW. Essas variedades usam o WAN PHY, projetado para interoperar com equipamentos OC-192 / STM-64 SONET/SDH. Eles correspondem à camada física do 10GBASE-SR, 10GBASE-LR e 10GBASE-ER respectivamente, e daí usam os mesmos tipos de fibra e suportam as mesmas ditâncias. (Não há um padrão WAN PHY correspondendo ao 10GBASE-LX4.)


Usam conexão ponto a ponto, interligando apenas dois equipamentos. (FUNIVERSA - 2010 - MPE-GO - Técnico de Informática)
Ethernet de 10 gigabit é muito nova, e continua em vistas sobre qual padrão vai ganhar aceitação comercial.

Padrões Relacionados

Esses padrões de rede não são parte do padrão Ethernet IEEE 802.3 Ethernet, mas suportam o formato de frame ethernet, e são capazes de interoperar com ele.

  • Wireless Ethernet (IEEE 802.11) - Frequentemente rodando a 2 Mbit/s (802.11legacy), 11 Mbit/s (802.11b) ou 54 Mbit/s (802.11g).
  • 100BaseVG - Um rival precoce para a ethernet de 100 Mbit/s. Ele roda com cabeamento categoria 3. Usa quatro pares. Um fracasso, comercialmente.
  • TIA 100BASE-SX - Promovido pela Associação das Indústrias de Telecomunicações (TIA). O 100BASE-SX é uma implementação alternativa de ethernet de 100 Mbit/s em fibra ótica; é incompatível com o padrão oficial 100BASE-FX. Sua característica principal é a interoperabilidade com o 10BASE-FL, suportando autonegociação entre operações de 10 Mbit/s e 100 Mbit/s—uma característica que falta nos padrões oficiais devido ao uso de comprimentos de ondas de LED diferentes. Ele é mais focado para uso na base instalada de redes de fibra de 10 Mbit/s.
  • TIA 1000BASE-TX - Promovido pela Associação das Indústrias de Telecomunicações, foi um fracasso comercial, e nenhum produto desse padrão existe. O 1000BASE-TX usa um protocolo mais simples que o padrão oficial 1000BASE-T, mas requer cabeamento categoria 6.