Arquivo da tag: Telefonica

P4P: o “Cavalo de Tróia do P2P”?

reblogado do remixtures.com e Publicado 25 Ago 08

Réplica do Cavalo de Tróia

Uma das novas buzzwords no campo das tecnologias de partilha de ficheiros chama-se P4P (Proactive Network Provider Participation for P2P), uma tecnologia desenvolvida por investigadores da Universidade de Yale e de Washington que muitos ISPs estão a tentar aperfeiçoar de modo a acabar com os congestionamentos das suas infra-estruturas de rede provocados pelos protocolos de P2P que – apesar do crescimento do streaming de vídeo – ainda consomem boa parte da largura de banda disponível.

Como eu referi aqui em Março passado, a vantagem aparente do P4P é que ele faz com que qualquer aplicação de partilha de ficheiros se ligue prioritariamente aos pares situados mais próximos de nós em termos geográficos durante as transferências de dados, em vez do modo semi-aleatório de ligação do BitTorrent via P2P convencional. Como é óbvio, isto representa enorme economias de custos para os fornecedores de acesso à Internet uma vez que o tráfego local é bastante mais barato do que aquele que sai fora da rede.

Depois de um primeiro teste realizado em Fevereiro desde ano organizado pela operadora de telecomunicações norte-americana Verizon e o ISP espanhol Telefónica que registou ganhos de eficiência no P2P de 50 por cento e um aumento médio da velocidade de downloads na ordem dos 60 por cento – tendo mesmo em certos casos sido registados aumentos de 200 por cento -, em Junho voltaram a ser realizados novos testes, desta vez com a participação da Verizon e da Comcast e apesar de não terem sido divulgados quaisquer resultados, parece que a experiência correu tão bem que os investigadores já pensam em realizar uma nova ronda de testes, mas desta vez centrada no streaming de vídeo em tempo real via P2P.

Na semana passada, os investigadores da Universidade de Yale e da Universidade de Washington apresentaram os seus mais recentes resultados sob a forma de um artigo científico onde explicam mais em pormenor o modo de funcionamento desta tecnologia.

À partida, o P4P parece ser uma solução milagrosa para um problema que atormenta muitos ISPs: como lidar com esse devorador de largura de banda chamado BitTorrent? Mas o rol de inconvenientes desta solução começa quando nos damos conta de que ela exige um certo grau de colaboração entre os ISPs e os programadores de P2P de modo a que os primeiros possam comunicar ao cliente de partilha de ficheiros qual o caminho mais rápido para chegar aos conteúdos e manter o tráfego dentro da sua rede, nota Thomas Mennecke da Slyck.

Para tal, cada operador necessita de manter um iTracker, um servidor encarregado de controlar o grau de congestionamento de uma rede e que se encontra directamente ligado ao cliente de P2P sempre que é efectuado um pedido de um ficheiro. É o remédio santo para acabar com todos os congestionamentos. Mas a que custo?

Mais importante do que isso, há quem esteja bastante desconfiado com as verdadeiras intenções do grupo de trabalho e a organização por detrás do P4P, a Associação da Indústria de Computação Distribuída (DCIA). Esta entidade foi criada em 2002 por uma série de fornecedores de acesso à Internet, empresas de desenvolvimento de software P2P, bem como por vários importantes fornecedores de conteúdos como estúdios de Hollywood e produtoras de televisão (Walt Disney, Sony Pictures, AOL Time Warner, Vivendi Universal, Metro-Goldwyn-Mayer, Viacom e News America) com o propósito declarado de encontrar medidas técnicas capazes de limitar o tráfego peer-to-peer não autorizado, como alerta o Ernesto do Torrent Freak.

Segundo ele, as razões para torcer o nariz ao P4P não acabam por aqui. Tendo em conta que os utilizadores do P4P terão mais probabilidades de partilhar com pares locais, enquanto que os utilizadores de P2P convencional partilham com todos, existem motivos suficientes para suspeitar que a tecnologia poderá diminuir a velocidade das transferências de todos os utilizadores que empregarem clientes não compatível ou que estão ligados a ISPs que não suportam o P4P. Na prática, isto compromete gravemente os princípios da neutralidade da rede. Será que o P4P ainda vai acabar por ser o “Cavalo de Tróia” do P2P, a arma secreta dos ISPs para acabar com todas as partilhas de conteúdos não autorizados e criar ambiente seguro, controlado, asséptico e “aceitável”? Para um contra-argumento, leiam a posição do Janko Roettgers no P2P Blog que considera que o P4P pretende ser apenas uma entidade neutral

 

Nota: a imagem que acompanha este artigo está disponível aqui segundo uma licença CC-BY-NC-ND 2.0 e pertence a GoGap.

Anúncios

Deixe um comentário

Arquivado em cultura web, notícias, web culture

Governo troca política de inclusão digital ampla por banda larga nas escolas

No dia 7 de abril foi publicado no Diário Oficial da União o Decreto
Presidencial 6424 que determina uma mudança nos contratos de concessão
com as operadoras do Serviço Telefônico Fixo Comutado (STFC):
Telefonica, Oi e Brasil Telecom.

Os contratos, assinados em 2005, obrigavam que as empresas instalassem
Postos de Serviço Telefônico (PSTs) em cada cidade brasileira. Menos
de três anos depois, chegou-se à conclusão que aquelas obrigações
estavam erradas e o próprio governo sugeriu a mudança, sem contudo
assumir publicamente o equívoco cometido em 2005.

Pelas novas regras, acordadas com as operadoras, estas deixam de estar
obrigadas a instalar os PSTs (exceto no caso de cooperativas rurais),
mas passam a ter que colocar seus backhauls em todas as sedes
municipais brasileiras.

Se a banda larga pudesse ser comparada com árvores, os backbones que
as operadoras possuem seriam os troncos, o backhaul os galhos e cada
cidade brasileira uma folha. Sem o backhaul, não é possível levar a
seiva que vem do tronco para cada folha. Ou seja, o backhaul interliga
o backbone da operadora às cidades. No Brasil, mais de 2000 municípios
não têm backhaul e, portanto, não podem se conectar à banda larga.

A proposta do governo é digna de mérito, porque, no século XXI, é
muito mais importante garantir a universalização da banda larga do que
do telefone fixo. Contudo, este adendo aos contratos de 2005 ainda
apresenta problemas. São pelo menos dois.

As velocidades mínimas exigidas para cada backhaul são muito baixas.
Por exemplo, uma imaginária cidade com 70.000 habitantes teria,
segundo o Instituto Brasileiro de Geografia e Estatística (IBGE), em
torno de 20.000 residências, mas contaria com um backhaul de apenas 64
Mbps. Ou seja, se apenas 1.000 casas tiverem dinheiro para contratar o
serviço de banda larga oferecido pela tele, ainda haveriam 19.000
excluídas e a velocidade máxima disponível para cada residência
conectada à suposta banda larga seria de apenas 64 Kbps, ou igual
àquela obtida por uma linha telefônica comum.

E não há a obrigação para que a operadora faça unbundling em seu
backhaul. Por detrás desse palavrório técnico, tal obrigação significa
que a operadora teria que vender parte da capacidade instalada do seu
backhaul a qualquer provedor interessado em competir com a própria
tele. E a preços não discriminatórios, regulados pela Agência Nacional
de Telecomunicações (Anatel). Essa seria a única forma de estimular a
concorrência. Do jeito como ficou, o Decreto permite que os backhauls
sejam usados exclusivamente pelos próprios serviços de banda larga das
operadoras (BrTurbo, Velox e Speedy), matando qualquer possibilidade
de concorrência local.

Mas, principalmente, a falta do unbundling dificulta em muito o
surgimento de experiências de redes comunitárias, organizadas pelas
prefeituras e/ou pela sociedade civil, usando tecnologias sem fio, e
que levam a Internet gratuíta a prédios públicos (como bibliotecas e
telecentros), mas também às próprias casas, o que já fazem Sud Minucci
(SP) e Duas Barras (RJ).

Em resumo, ainda que amplie o alcance da banda larga, o Decreto
Presidencial 6424 está longe de garantir a tão sonhada inclusão
digital de nossa população e tem como efeito colateral o
aprofundamento do monopólio regional exercido por cada tele em sua
área de concessão.

O acordo subterrâneo:

A mudança dos contratos de concessão teve que contar com a
concordância das teles. Caso contrário, ficaria valendo a obrigação
inicial dos PSTs. Para convencer as teles, um estudo da Anatel
comprovou que o custo de instalação dos backhauls nos municípios que
ainda não o possuem seria o mesmo da instalação dos PSTs. Seria trocar
seis por meia dúzia, sem onerar o caixa destas empresas. E é óbvio que
as teles perceberam, também, que a futura prestação de serviços de
banda larga lhes trará muito mais receita do que a administração de
postos telefônicos.

Tudo certo, eis que surge um novo elemento. Além da troca dos PSTs
pelos backhauls, o governo negociou um segundo acordo com as teles,
que prevê a instalação de conexão de 1 Mbps em cada uma das 56 mil
escolas públicas urbanas brasileiras, sem custos para os governos
(federal, estaduais e municipais) pelo menos até 2025 (quando vencem
os atuais contratos de concessão). Até 2010 todas essas escolas
deverão estar com a conexão funcionando.

Se as teles brigaram tanto para ter certeza que a obrigação dos
backhauls não lhes custaria nada a mais do que a antiga obrigação dos
PSTs, se não queriam desembolsar nada além do que fora previsto
inicialmente, por que aceitaram tão prontamente este novo acordo, que
foi anunciado no dia 8 de abril pelo presidente Lula? Nada as obrigava
a este novo acordo. Por que concordaram? Puro patriotismo?

Coincidência ou não, ao mesmo tempo em que começaram as negociações em
torno deste segundo acordo, saía de cena o debate no interior do
governo sobre o “backbone estatal”. Essa proposta consistia em dois
movimentos. Primeiro, unificar a gestão dos cerca de 40 mil Km de
fibra óptica que o governo federal já possui, seja através das
estatais ou da massa falida da Eletronet. Em segundo lugar, construir
sua própria rede de backhaul, levando a conexão deste backbone estatal
a cada município brasileiro.

Com isso, o governo estaria em condições de ofertar às cidades
(prefeituras e/ou sociedade civil) a possibilidade de construírem
redes locais que posteriormente seriam conectadas à infra-estrutura do
governo federal. Sem fins lucrativos, este backbone estatal poderia
cobrar das cidades apenas o necessário para se manter e crescer (o que
é bem menos do que cobram atualmente as teles).

De início, já seria possível prever que as prefeituras e governos
estaduais poderiam usar os serviços de telefonia por IP desta rede,
deixando de ser usuárias das operadoras privadas. Uma economia de
muitos milhões para os cofres públicos. Mas também seria possível
construir redes comunitárias, que levassem Internet banda larga,
telefonia por IP, webrádio, IPTV e muito mais para todas as
comunidades hoje excluídas das estratégias de mercado das teles. Uma
ligação local, feita de um telefone conectado a esta rede comunitária
para outro igualmente conectado, teria preço igual a zero!

Mas o acordo subterrâneo com as teles foi além. Não bastava apenas
garantir que o governo abriria mão de usar sua própria infra-estrutura
para fazer inclusão digital. As teles também ganharam o direito de
explorar sozinhas a rede que irão construir para chegarem até as
escolas. Essa rede passará na porta de milhares de residência e
obviamente as teles a usarão para vender seus serviços de banda larga.
A proposta do governo não obriga a que as teles tenham que partilhar
essa rede com os provedores locais (o tal unbundling).

Com backhauls e redes de “última milha” para uso exclusivo, as teles
acabaram de ganhar o monopólio da banda larga em todo o país.

Se tudo isso for mais do que uma simples coincidência, quando o
presidente da República inaugurar a primeira escola conectada em banda
larga através deste segundo acordo com as operadoras, o que pouca
gente saberá é que esse evento festivo também será o funeral de uma
idéia muito mais inclusiva. Por esta linha de raciocínio, o governo
negociou a instalação da banda larga nas escolas em troca do abandono
da idéia de um backbone estatal e da morte dos pequenos provedores
locais.

Para as teles, as 56 mil escolas conectadas até que saíram barato…

(*) Artigo publicado no Observatório do Direito à Comunicação.

> Gustavo Gindre é jornalista (UFF), mestre em comunicação (UFRJ),
coordenador geral do Instituto de Estudos e Projetos em Comunicação e
Cultura (INDECS), membro eleito do Comitê Gestor da Internet do Brasil
e membro do Coletivo Intervozes.

Comentario:
64 kbps não deveria nem ser considerado banda larga. Para uma
navegação confortável (digamos, escutando uma rádio e navegando)
precisamos de uns 256 kbps. E ainda está piorando a situação nesse
mundo de páginas bastante pesadas (muitas com 1MB no index), youtube,
podcasts… 64 kbps = lixo.

Blogado do email do dpadua para a lista do www.estudiolivre.org

Deixe um comentário

Arquivado em notícias, web culture