Sunday, December 03, 2006

SEMINÁRIO SOBRE O CAPITALISMO COGNITIVO NO RIO DE JANEIRO

No próximo dia 5 de dezembro participarei da mesa A Natureza do Conflito no Capitalismo Cognitivo no Seminário Capitalismo Cognitivo: comunicação, linguagem e trabalho, promovido pelo Centro Cultural Banco do Brasil, com curadoria do Giuseppe Cocco.

Segue a programação:

Terça-feira 5

ABERTURA
Giuseppe Cocco - LABTeC/ESS/UFRJ
Micael Herschmann - Nepcom/ECO/UFRJ

A NATUREZA DO CONFLITO NO CAPITALISMO COGNITIVO

O “capitalismo cognitivo” faz emergir novos conflitos: por um lado, as problematizações da idéia de “critique artiste” diante das lutas dos artistas e profissionais do espetáculo; por outro, os mal entendidos que conceitos como “critique artiste” ou mesmo “capitalismo cognitivo” podem introduzir no debate sobre o capitalismo contemporâneo.
- Maurizio Lazzarato - Universidade de Paris 1 - França
- Sergio Amadeu - Faculdade de Comunicação Social Cásper Líbero
- Tatiana Roque - moderador - IM/UFRJ

Quarta-feira 6

TRABALHO E EMPRESA NA ERA DO CAPITALISMO COGNITIVO
A questão do “software livre” no capitalismo cognitivo, a apropriação e a perturbação da nova “governança” pelos bens e ativos intangíveis.
- Antoine Rebiscoul / The GoodWill Company - França
Fábio Malini - UFES - Vitória
Luiz Antonio Correia de Carvalho - moderador - RITS

Quinta-feira 7

TRABALHO, SABER e CULTURA
Em meio a diversas crises: urbana, do trabalho, da democracia representativa, as cidades e suas periferias são percebidas como laboratórios de estilo, de estéticas, de economia para os movimentos globais, em que novos movimentos e redes sociais estão reagindo ao colapso social e propondo outros modelos de produção e inserção.

- Ivana Bentes - ECO/UFRJ
- Écio de Salles - ECO/UFRJ
- Sérgio Sá Leitão - moderador - BNDES

Centro Cultural Banco do Brasil
Rua Primeiro de Março, 66
Centro Rio de Janeiro RJ 20010-000
Tel. (21) 3808-2020
bb.com.br/cultura

Tuesday, November 28, 2006

VERDADES INCONVENIENTES NASCEM DE PERGUNTAS INCONVENIENTES

A ABES, Associação Brasileria de Empresas de Software, divulgou recentemente uma pesquisa que está sendo utilizada pelos seus membros e pela Microsoft para atacar o software livre no programa Computador para Todos.
O programa PC Conectado, hoje, Computador para Todos, foi um sucesso e ampliou a base instalada de software livre no Brasil. Isto fez com que a microsoft começasse a baixar os preços de suas licenças e tentar de todas as formas impedir que as máquinas saissem de fábrica com 26 softwares livres instalados. A concorrência promovida pelo software livre teve como efeito imediato a redução do preço das licenças de software proprietário, para o desgosto do monopólio.
Para tentar conter o avanço do software livre, uma das estratégias do monopólio é pagar todos os anúncios publicitários das empresas de hardware. Por isso, lemos propaganda de computadores nas páginas de jornal com o seguinte texto: empresa tal recomenda M$. Obviamente se fizermos o balanço contábil do que a empresa de hardware paga para a microsoft e retirarmos o que a microsoft paga em anúncios e promoções podemos perceber que ela está quase dando suas licenças gratuitamente. Mas isto não é uma prática anti-concorrencial? Sim.O CADE irá agir?

Agora, a microsoft coloca uma propaganda na TV que dá a impressão que o software livre é um software pirata ou ruim, sendo que o software instável e repleto de vírus é o deles. Isto não seria uma propaganda enganosa? E o CONAR ( Conselho Nacional de Auto-Regulamentação Publicitária ) fará algo?

Por fim, algumas perguntas sobre a pesquisa da ABES precisam ser feitas:

1) Por que uma pesquisa feita em junho foi divulgada somente agora? Será que é para impedir as vendas de computadores com software livre na véspera do Natal? Será que é para influenciar na montagem do novo governo Lula?

2) Por que a pesquisa não peguntou quantas máquinas com start edition, da microsoft, foram trocados por windows pirata?

3) Por que a pesquisa da ABES não quis saber quantos computadores vendidos somente com windows serve para a instalação de todos os demais softwares piratas? Ou será que a ABES não sabe que soemnte a licença para o Office (pacote de escritório da m$) custa R$ 1200,00 (mais que o computador)?

4) Por que a pesquisa foi feita somente em dois estados ou segundo está escrito "nas Unidades Federais de São Paulo e Paraná?

5) Por que a ABES não faz uma pesquisa para saber qual o grau da pirataria geral no país? Será que é porque ela descobrirá uma verdade inconveniente: a pirataria é que mantém o monopólio da microsoft. Quantas pessoas que compram computadores que custam R$ 1800,00 gastariam mais R$ 1400,00 somente nos demais aplicativos da m$, sem falar no Corel, no Photoshop, entre outras licenças.

Acho que a tentativa de manter o monopólio tem limites. A concorrência é melhor, reduz custos, melhora a qualidade e, por isso, devemos defendê-la. Não seria o caso, do CADE, do Ministério Púbico Federal e outros órgãos de defesa da concorrência entrarem em ação?

Wednesday, November 15, 2006

SOCIEDADE DA INFORMAÇÃO OU DA VIGILÂNCIA?

Publiquei este artigo na minha coluna no Gazeta Mercantil, dia 11 de novembro, segunda-feira. Trata da defesa do anonimato e da privacidade na rede:


Você acharia correto a aprovação de uma lei que obrigasse as pessoas andarem nas ruas com seus nomes expostos de modo visível em um adesivo sobre a roupa? Seria uma medida razoável prender e impor uma pena de dois anos de detenção para as pessoas que usassem nomes não verdadeiros ao caminharem pelo passeio público? Estas medidas impediriam que os criminosos agissem contra os homens de bem? Os bandidos ficariam intimidados em terem que assaltar lojas e transeuntes com seus nomes expostos? As ruas seriam mais seguras? Tudo indica que não.

Agora imagine se além do nome você tivesse que expor seu número de telefone e CPF. Alguns poderiam perguntar se existe algum mal nesta identificação. Afinal, por que os cidadãos honestos seriam penalizados pela exposição da verdade? O que eles teriam para esconder? Os mais extremistas diriam “quem não deve, não teme”.

Ainda bem que estamos longe disso. Uma lei desse tipo que obrigasse a identificação permanente além de não evitar os crimes, apenas penalizaria os cidadãos pacatos. Permitiria que agentes mal intencionados mapeassem as pessoas e ligassem nomes e dados a comportamentos e ações. Esta sociedade seria insuportável. Seria uma sociedade da vigilância e da destruição da privacidade. Uma sociedade que reduziria a liberdade e introduziria o cotidiano de eterna ameaça. Dito dessa forma parece que estou construindo um cenário de ficção futurista, mas infelizmente alguns lobistas de empresas de segurança digital e pessoas de mentalidade autoritária estão querendo impor o fim do anonimato em nosso cotidiano. Alguns projetos de Lei já rondam o Congresso Nacional, em Brasília.

Estes projetos representam os grupos que querem acabar com a privacidade na Internet. São pessoas que consideram o anonimato é incompatível com a segurança na rede. Sem dúvida, no ciberespaço existe um trade-off entre a segurança e a defesa da privacidade. O importante é encontrar um equilíbrio entre uma coisa e outra. Seja como for é essencial defender a liberdade. Não pode existir liberdade em uma sociedade assimétrica sem existir a privacidade. Portanto, é inaceitável que as pessoas sejam obrigadas a se identificar e inserir seu RG, CPF e telefone para poder acessar um chat ou entrar em um ambiente interativo. De certo modo, isso pode ser muito pior do que ter que andar com seu nome exposto pelas ruas, pois nelas você poderia ainda tentar perceber quem está lhe vigiando. No interior das redes digitais, os cidadãos comuns não têm a mínima chance de saber quem estará escaneando e vigiando seus rastros digitais. Mas, os crackers terão à sua disposição mais facilmente o nome real e o CPF de suas vítimas, além de seus usernames e senhas. Um absurdo.

Ao contrário do que pretendem os formuladores desses ataques contra a liberdade, o anonimato é vital em uma sociedade. Se ele dificulta a identificação de criminosos, não é ele que gera o crime. Ao contrário, o anonimato protege os fracos e a vida íntima dos homens de bem, a maioria da nossa sociedade. Não quero que ninguém fora do meu circulo de amizade saiba o que coleciono, qual supermercado ou livraria virtual freqüento, quais sites são de minha preferência e qual horário denunciei ao Procom uma empresa de banda larga que faz operação casada com uma empresa de software, impedindo que os usuários tenham liberdade de escolha. Estes fatos não dizem respeito ao coletivo social, não interferem na organização da sociedade e, sendo assim, não precisam ter sua autoria divulgada. Um dos mais antigos direitos de cidadania é o direito à privacidade e à intimidade.

Uma democracia não vive sem o anonimato. Ele, por exemplo, permite que o cidadão, sem grande poder político ou econômico, possa expor sua opinião sem pressões e ameaças. O anonimato é a base da liberdade de voto e de consciência. Ele permite que a pessoa mais frágil vote contra os tiranos, poderosos, vingadores e criminosos. O anonimato na comunicação mediada por computadores assegura a liberdade cotidiana, diminui as possíveis perseguições e afasta os perigos da vigilância constante. Entretanto, como é de conhecimento geral, os provedores de acesso têm meios para recuperar todos os registros de navegação (os logs) dos seus usuários, mas os provedores somente devem realizar tal intrusão na vida das pessoas mediante ordem judicial. Como a liberdade não dá em árvores, como resultado de uma construção social, ela precisará ser defendida, principalmente no ciberespaço. Defender a liberdade, a privacidade e o anonimato é um dos elementos chaves para a construção de uma cidadania digital.

Monday, November 06, 2006

Hackers, Monopólios e Instituições Panópticas: Elementos para uma Teoria da Cidadania Digital

Apresentei o texto abaixo na Intercom, em setembro 2006. Acredito que ele seja útil para a reflexão diante dos ataques que a idéia de liberdade está sofrendo na rede.


Prof. Dr. Sergio Amadeu da Silveira
Faculdade de Comunicação Social Cásper Líbero

RESUMO
A expansão da comunicação mediada por computador por meio de redes transnacionais, baseadas em protocolos e códigos de comunicação, coloca uma série de problemas de grande complexidade para a consolidação da cidadania, tais como, a defesa da privacidade, o direito ao anonimato, a liberdade dos fluxos de conhecimento, a propriedade dos bens simbólicos e a governança da Internet. Questões sobre a capacidade das tecnologias da informação e comunicação reconfigurar as práticas sociais e engendrar processos de mudança no cenário mundial, incorporando novos direitos, são apontadas neste artigo que delineia o confronto entre as perspectivas de uma cultura hacker, de um lado, e o vigilantismo panóptico e rentável de Estados e monopólios de algoritmos, de outro.

Palavras-Chave:comunicação e tecnologia, Internet, cidadania digital, cibercultura, comunicação mediada por computador.


Introdução: Velhos Direitos, Novas Violações e a Ambigüidade das Redes.

A comunicação mediada por computador e a digitalização intensa de grande parte dos conteúdos de expressão – textos, sons ou imagens -- ampliaram as possibilidades das grandes organizações – Estados, companhias transnacionais e redes criminosas – de observar e rastrear o comportamento e o cotidiano dos cidadãos. A comprovação empírica dessa afirmação pode ser encontrada exatamente nos Estados Unidos, um dos países com grande tradição na defesa da privacidade e, ao mesmo tempo, a nação com o maior número de computadores e internautas. Em dezembro de 2005, o jornal The New York Times divulgou que presidente George W. Bush teria autorizado o NSA (National Secutity Agency) a realizar milhares de escutas telefônicas e scaneamento de e-mails sem a prévia autorização judicial.3 O governo alega que a Lei USA Patriot, aprovada no fim de 2001, permite a espionagem de pessoas sem consulta ao Judiciário, pois isto seria indispensável para um combate ágil e eficaz ao terrorismo.

No mês de maio de 2006, o site de buscas Google, recusou-se a entregar ao Departamento de Justiça norte-americano uma lista contendo palavras e sites pesquisados por todos usuários durante uma determinada semana. O governo já vinha utilizando as bibliotecas para captar informações sobre o que as pessoas consultam.4 A Lei USA Patriot permite tais ações de rastreamento. É notável que antes mesmo dos ataques de 11 de setembro, o FBI (polícia federal norte-americana) já scaneava e-mails que transitavam pelos backbones (redes de alta velocidade) e seus roteadores instalados nos Estados Unidos. Esta prática de vigilância ocorria a partir de um sistema chamado Carnivore que permitia ler todos os e-mails e copiar aqueles que continham determinadas frases e palavras-chaves. É importante ressaltar que mesmo denunciado no parlamento por organizações da sociedade civil, tais como a EFF (Eletronic Frontier Foundation) e EPIC (Eletronic Privacy Information Center), o Carnivore violou e-mails de cidadãos americanos e também de estrangeiros. Todas as mensagens “supeitas” que tiveram o território norte-americano como rota de passagem foram violadas.

Talvez muito mais do que os Estados, algumas poucas corporações estão buscando legitimar a alteração no imaginário social sobre o espaço da privacidade em um mundo inseguro. Empresas que controlam algoritmos embarcados nos códigos de programação computacional, amplamente empregados como intermediários da comunicação contemporânea, tais como sistemas operacionais, estão realizando intrusões em computadores pessoais sem que nenhuma reação revoltosa seja noticiada. A tecnologia DRM (Digital Rights Management) usada para tentar impedir o uso não autorizado, denominado “pirata”, de softwares, games, vídeos, filmes e músicas, está permitindo que em nome da defesa do copyright seja destruído o direito a intimidade e a privacidade.

Além disso, o caráter transnacional da rede de comunicação mediada por computador, coloca o problema sobre a definição das regras básicas de operação da rede que são definidas por protocolos de comunicação, padrões e pela estrutura dos nomes de domínios. Emerge a questão da governança da Internet que envolve a disputa entre cinco grandes interesses não necessariamente contrapostos: dos comitês técnicos que definiram até agora os protocolos da Internet; dos Estados nacionais; das corporações de Tecnologia de Informação; da sociedade civil mundial e das várias comunidades hacker; e o interesse do Estado norte-americano. Uma série de decisões aparentemente técnicas que afetarão a privacidade e o anonimato dos internautas estão sendo debatidas e poderão ser adotadas sem que os cidadãos do planeta, que utilizam a Internet, tenham a mínima possibilidade de debatê-las ou mesmo de recusá-las. Se for definido que o protocolo de comunicação básico entre as milhares de redes deverá ter como o padrão o fim do anonimato na comunicação, isto afetará completamente a forma como conhecemos a Internet hoje.

Estes exemplos reforçam a necessidade de observarmos mais atentamente a relação entre comunicação, tecnologia e mudança social. Também indicam que a comunicação mediada por computador, por seu caráter transnacional, afeta cidadania e exige a reconfiguração dos direitos para uma vida coletiva no ciberespaço. Sem dúvida, a rede mundial de computadores tem servido às forças democratizantes para compartilhar não somente mensagens e bens simbólicos, mas também conhecimentos tecnológicos que estão gerando as possibilidades distributivas de riqueza e poder extremamente promissoras. Exatamente nesse contexto, que um conjunto de mega-corporações atuam para manter e ampliar em uma sociedade informacional os poderes que detinham no capitalismo industrial. Para tanto, precisam conter a hiper-comunicação pública e torná-la comunicação privadamente controlada, substituindo a idéia de uma cultura livre pela cultura da submissão ou do licenciamento.


Algumas Considerações Sobre a Noção de Cidadania.


John Perry Barlow, um dos fundadores da Eletronic Frontier Foundation, escreveu a A declaration of the Independence of Cyberspace, em fevereiro de 1996, como reação ao Ato de Decência nas Comunicações, uma lei que visava o controle de conteúdos na Internet, proposta pela administração do presidente norte-americano Bill Clinton. Barlow foi enfático: “Governments of the Industrial World, you weary giants of flesh and steel, I come from Cyberspace, the new home of Mind. On behalf of the future, I ask you of the past to leave us alone.” Apesar do seu apelo, dez anos depois é preciso constatar que ele não foi atendido, nem pelos Estados nacionais, nem pelas mega corporações. Isto porque o ciberespaço não existe descolado do mundo material. A Internet depende da infra-estrutura lógica e física que está sobre o comando de pessoas e empresas que habitam os territórios controlados pelos velhos gigantes estatais, os Leviatãs.

Sem dúvida alguma, a Internet representa uma mudança de paradigma das comunicações e é vista por uma série de teóricos como a maior expressão da chamada revolução das tecnologias da informação (CASTELLS). A supremacia da comunicação baseada na difusão, a partir de um ponto, está sendo substituída pela comunicação em rede. A Internet assegura a possibilidade de qualquer cidadão disputar a atenção da rede para seus sites, blogs ou mensagens. A net é um meio técnico com características intrínsecas que permitem a democratização da criação de conteúdos. Considerando ainda que a Internet é uma rede transnacional baseada no fluxo de dados, que transitam sobre um mesmo conjunto de protocolos e regras de codificação e decodificação de códigos, fica evidente que os Estados nacionais não teriam o controle total do fluxo de conteúdos, como ocorre no caso da TV e do rádio. O fluxo da Internet pode originar-se fora do território nacional. A lei nacional tem enorme dificuldade de ser executada se um provedor de conteúdo que hospeda um site de pedofilia encontrar-se hospedado em um país distante.

Todavia, existem possibilidades de controle de conteúdos e de aplicações que são realizadas por meio da própria tecnologia. É preciso relativizar a idéia de que os Estados não possuem formas de bloquear e até mesmo controlar determinados fluxos da Internet. O governo autoritário da China filtra conteúdos e impede o acesso a determinados sites porque controla os dois backbones por onde transitam todos os dados que entram e saem do país. Desconhecer estas possibilidades de controle significa abandonar a jornada da humanidade na luta pela legitimação do direito à livre comunicação como um dos direitos fundamentais do homem e do cidadão. É olhar somente para as promessas democratizantes da comunicação mediada por computador e esquecer de sua face panóptica. É desconsiderar a gravidade do fato do Google organizar buscas censuradas para poder ter acesso ao mercado chinês, prática já realizada pelo Yahoo e MSN.

Donna Haraway, em sua brilhante reflexão feminista, qualificou o momento em que vivemos como a “transição das velhas e confortáveis dominações hierárquicas para as novas e assutadoras redes (...) de 'informática de dominação'”. (HARAWAY, p.65) As redes possuem uma linguagem comum entre as máquinas e estas são intermediários indispensáveis para as linguagens naturais humanas, em um ambiente de comunicação via máquinas de processar dados. O jurista Lawrence Lessig já havia alertado, no final dos anos 1990, que no ciberespaço o código tem o mesmo papel de uma legislação. (LESSIG). Exatamente pelos intermediários tecnológicos que Estados autoritários e neo-autoritários (falo dos Estados Unidos), bem como gigantescas empresas imperiais do capitalismo informacional tentam controlar os cidadãos.

Weissberg denunciou a contradição existente entre o desejo de uma comunicação cada vez mais transparente e desintermediada, a partir do dinamismo e do potencial interativo da Internet, e a realidade de sua operação. Por isso, afirmou que “o objetivo de supressão dos intermediários se transforma, conforme seu próprio movimento, em criação de uma nova camada de mecanismos mediadores que automatizam a mediação.”(p.123) Mas como fica a noção de cidadão em um mundo cada vez mais transnacionalizado e com a comunicação mediada por padrões e códigos (softwares) que são apresentados por instâncias definidas como técnicas e distantes dos mecanismos de controle democrático?

Aqui é necessário enfrentar pelo menos duas questões: primeiro, a da evolução da cidadania; segundo, a questão do papel da comunicação e da tecnologia para a mudança ou permanência das relações sociais.

Segundo vários autores, podemos definir “cidadania” como o direito a ter direitos. T. H. Marshall observando a evolução do conceito na Inglaterra, defendeu existir direitos de primeira e segunda geração. Para Marshall, primeiro teriam surgido os direitos civis e depois os políticos (séculos XVIII e XIX). Uma segunda geração de direitos surgiram no século XX e conformariam os chamados direitos sociais. Apesar de acusada de etnocêntrica e linear, a proposição de Marshall passou a ser referência para a observação da mutabilidade histórica da cidadania. Nesse sentido, alguns teóricos observaram o surgimento na segunda metade do século XX dos direitos de terceira geração, ou seja, direitos de grupos, de minorias e etnias, direitos difusos que ganham força em todo o mundo. Questões como o direito ao meio ambiente, o feminismo e a defesa do consumidor, são incorporados em várias legislações e discursos políticos. (LISZT)

A comunicação transnacional mediada por computador coloca a necessidade de reivindicar novos direitos? Como reivindicar novos direitos em um ambiente transnacional? Mas não seria um exagero exigir deliberação democrática e debate público sobre as funcionalidades de sistemas, códigos e protocolos considerados técnicos pelas indústrias de TI e pelo senso comum?

Vamos verificar um caso concreto que interferirá no cotidiano de todas as pessoas do planeta que utilizam e cada vez mais dependem da rede mundial de computadores. O protocolo de comunicação da Internet chamado IP (Internet Protocol) permite o endereçamento de dados entre todas as redes que a compõem. A versão deste protocolo que permitiu a expansão veloz da rede por todo o planeta é denominada de IPv4 e está sendo substituída por uma nova versão, o IPv6. Entre os vários motivos de criar uma nova versão estão as razões de segurança. O IPv6 permite que os cabeçalhos dos pacotes de dados sejam assinados digitalmente por chaves criptográficas. Estas chaves servem para identificar o autor das mensagens. Pois bem, se for definido que o padrão de comunicação entre redes será a identificação criptográfica de todos os pacotes, então a Internet terá suprimido o anonimato na comunicação. Suponha que boa parte ou a maioria dos cidadãos dos vaŕios países do mundo sejam contra o fim do anonimato na Internet. Como influenciarão esta decisão? A quem recorrer? Qual será o fórum de decisão? Ou continuaremos a acreditar que estas decisões são meramente técnicas?

Guarinello coloca-nos um ponto extremamente relevante: “Há, certamente, na história, comunidades sem cidadania, mas só há cidadania efetiva no seio de uma comunidade concreta, que pode ser definida de diferentes maneiras, mas que é sempre um espaço privilegiado para a ação coletiva e para a construção de projetos para o futuro.”(p.46) O problema é que a Internet por ser transnacional não se enquadra facilmente no terreno onde a cidadania tem conseguido avanços, ou seja, nos espaços nacionais.

Entretanto, Liszt Vieira aponta que “recentes concepções mais democráticas pretendem dissociar completamente a cidadania da nacionalidade. (...) Por esta concepção, seria possível pertencer a uma comunidade política e ter participação independente da questão de nacionalidade.”(p.32) Mark Poster avança e questiona: “podem os novos meios de comunicação promover a construção de novas formas políticas não amarradas a poderes territoriais e históricos? Quais são as características dos novos meios de comunicação que promovem novas relações políticas e novos sujeitos políticos?”(p.328)

Talvez uma boa linha de investigação tenha sido lançada por Benedict Anderson quando afirmou que a nação é uma comunidade imaginada. Os meios de comunicação foram fundamentais para a constituição da idéia moderna de nação. A partir dessa perspectiva, Gustavo Lins Ribeiro defende que do mesmo modo que “Benedict Anderson mostrou, retrospectivamente, a importância do capitalismo literário para a criação de uma comunidade imaginada que evoluiria para tornar-se uma nação. Sugiro que o capitalismo eletrônico-informático é o ambiente necessário para o desenvolvimento de uma transnação.” (p.469)

A emergência de uma “comunidade transnacionalmente imaginada”, nos dizeres de Ribeiro, exige o aparecimento de lealdades superiores a dos Estados Nacionais, forjadas a partir do ciberespaço. Nesse contexto, Mark Poster vê a possibilidade de surgimento de uma espécie de cidadão planetário: “o net-cidadão pode ser a figura formativa num novo tipo de relação política, que partilha a lealdade à nação com a lealdade à Internet e aos espaços políticos planetários que ela inaugura.”(p.329)


Comunicação, Tecnologia e o Mito da Neutralidade.


O problema da cidadania, em um cenário de globalização e transnacionalidade, coloca-nos diante da necessidade de enfrentarmos a discussão do papel das comunicações e das tecnologias da informação nos processos de mudança e permanência das relações sociais. Dominique Wolton escreveu:

“Se uma tecnologia da comunicação desempenha o papel essencial, é porque simboliza ou catalisa, uma ruptura radical da ordem cultural ocorrendo simultaneamente na sociedade. Não foi a imprensa que, por si, transformou a Europa, mas sim a ligação entre esta e o profundo movimento que subverteu o poder da Igreja Católica.” (WOLTON, 2003, p.32)

Para Wolton, as tecnologias de informação e os meios de comunicação não criam revoluções, ao contrário, são utilizados pelos processos revolucionários ou mudancistas. Sem dúvida, não foi a revolução industrial que criou o capitalismo, mas sem dúvida alguma, o domínio da tecnologia da máquina assegurou a primazia sobre o processo de apropriação da riqueza produzida e, este domínio econômico, gerou mais poder sobre a sociedade. Os capitalistas não poderiam impor suas relações de produção se não incorporassem a forma mais produtiva e avançada de geração de bens materiais.

Wolton vê nas promessas em torno das tecnologias da informação as mesmas ilusões que geraram prognósticos otimistas para os impactos da TV, do Rádio, do satélite, do cabo, no convívio humano. O teórico francês não percebeu que a TV e todas as formas do paradigma de difusão não têm nenhuma relação com as tecnologias da informação. Estas são mais do que formas de comunicação intensa e múltipla, são também tecnologias da inteligência (LÉVY) que ampliam as possibilidades de transformar informações em conhecimento. São tecnologias que reivindicam um comportamento interativo e se baseiam na proliferação da cópia. Permitem fundir sons a imagens e estas a textos, sendo multidirecionais e capazes de armazenar bilhões de dígitos na mesma máquina receptora e transmissora de mensagens.

Ao afirmar que “a técnica não é suficiente para mudar a comunicação na sociedade”, Wolton pode estar desconsiderando dois importantes elementos: um histórico e outro teórico. Primeiro, a tecnologia da informação nasceu no âmbito do cálculo e do processamento de dados. Somente depois que o computador tornou-se uma ferramenta de comunicação. De um projeto militar no cenário da Guerra Fria, o paradigma da computação em rede surgiu e foi reconfigurado inúmeras vezes por cientistas, hackers e pensadores da contracultura californiana (CASTELLS). Assim surgiu a Internet real, tal como a conhecemos hoje. É inegável que sua expansão está mudando a face das comunicações no planeta. E a comunicação em rede é completamente distinta do broadcasting.

Segundo, talvez a insistência de Wolton em afirmar que a tecnologia não muda a sociedade guarde a concepção de que as tecnologias são socialmente neutras. Técnicas quando inventadas sempre guardam decisões de quem as criou. Muitas delas podem ser reconfiguradas, outras têm o uso ambíguo, como a Internet, mas nunca são criadas sem objetivos, de modo neutro. É exatamente esta a questão que aqui discuto. Decisões sobre a arquitetura das redes e seus protocolos estão sendo tomadas por engenheiros, mas têm grande impacto social e podem limitar ou ampliar a liberdade da comunicação entre as pessoas. São decisões de grande impacto público, portanto, adquirem relevância política, mesmo que tenham sido tomadas por comitês técnicos.

Considerar que determinadas tecnologias guardam potenciais revolucionários, não significa também assumir a proposta de McLuhan. Mattelart criticou a supremacia que McLuhan dava ao meio. Sem dúvida, o meio condiciona, mas dificilmente poderá determinar os conteúdos. São visíveis os exageros de McLuhan quando advogou que “o grande abalo que rompeu o corpo da comunicação e a desmembrou teve lugar na Idade Média. Se a Igreja perdeu posição nessa época, se ela aí perdeu sua unidade mística, foi por causa da tecnologia.”(MATTELART, p.103) Por outro lado, é necessário reconhecer que a invenção de Gutenberg viabilizava a proposta de doutrinadores da Reforma que queriam romper com os intermediários entre o homem e Deus, entre a portador da fé e os escritos sagrados. A impressão de tipos móveis “baniu o estilo de vida comum em favor de uma comunidade massiva onde cada indivíduo pode se tornar um leitor e onde a leitura se torna uma experiência privada.” (idem, p.103)

Em outro texto mais recente, Wolton parece reconhecer a magnitude e a complexidade da comunicação em rede e aponta um problema que indica a necessidade da deliberação pública sobre os caminhos da comunicação mediada por computador, principalmente, a Internet: “É no que o tema da sociedade da informação é perverso: ele homogeneiza tudo e faz desaparecer o homem por de trás dos fluxos de informação. Numa economia do signo, tudo é possível. Cabe então ao homem inventar seus próprios limites.”(WOLTON, 2004, p.155)


Conclusão: Concentração de Poder e Cultura Hacker


Carlos Afonso, um dos pioneiros da Internet no Brasil, ao comentar o debate sobre a governança da Internet na Cúpula Mundial da Sociedade da Informação, ocorrida em duas fases, Genebra, em 2003, e Túnis, em 2005, afirmou:

“Os equívocos de alguns participantes do debate global vão desde acreditar que o tráfego de conteúdo passa pelo sistema de servidores-raiz até pensar que as funções de governança da Internet como um todo deveriam estar sob a alçada da UIT (União Internacional das Telecomunicações). A ICANN também costuma ser apresentada como uma organização global, o que é verdade apenas numa pequena parte e, em termos legais, não o é de forma alguma. A ICANN está sujeita às leis federais dos Estados Unidos e às leis do estado da Califórnia, e o seu poder de governança da Internet está limitado por vários contratos e por um Memorando de Entendimento (ou MoU, na sigla em inglês) envolvendo o governo dos EUA, a ICANN e a principal operadora do sistema global de nomes de domínio, uma empresa privada chamada Verisign.” (AFONSO, p.11)

O que mais chama a atenção na crítica de Carlos Afonso não é a ignorância de alguns participantes, mas o grande poder do governo norte-americano sobre um dos órgãos técnicos que definem regras da comunicação em rede. Por outro lado, este poder não está apenas no contexto da governança da Internet, pois uma sociedade em rede ou informacional exige um conjunto de intermediários e de decisões técnicas de enorme impacto sócio-planetário.

A concentração de poder comunicacional na sociedade da informação poderá ser muito maior do que a ocorrida com a mídia de massas na sociedade industrial. No ano de 2002, mais de 90% dos computadores pessoais do mundo utilizavam o sistema operacional de uma única empresa norte-americana, a Microsoft. O sistema operacional é o principal programa de uma máquina de processar informações. Ele define como a máquina deve agir, como deve alocar a memória, que tipos de programas podem ou não podem ser instalados nela, entre outras funções. “Por dominar a linguagem básica dos computadores, esta empresa também passou a dominar o mercado de navegadores web (browser), uma vez que passou a vender o browser junto com seu sistema operacional, desbancando todos os outros existentes.”(SILVEIRA, p.157)

Mark Poster alerta-nos que a saída para a democratização da sociedade informacional está na construção de novas estruturas políticas fora do Estado-nação em colaboração com as máquinas.”(p. 322) Ou seja, é na formação de um movimento de opinião pública planetário, transnacional, no ciberespaço com consequências em todos os territórios, pois para Poster não há como criar processos decisórios mundiais. Poster acredita que “a nova 'comunidade' não será uma réplica de uma ágora, mas será mediada por máquinas de informação. Portanto, o exigido é uma doutrina dos direitos da interface homem/máquina.”(p.322)

Para construirmos a idéia de novos direitos de caráter planetário, será fundamental observarmos a cultura hacker que esteve presente desde o nascimento e em toda a expansão da comunicação baseada nas redes informacionais. A Internet evoluiu aberta, vencendo tentativas de apropriação privada de seus elementos principais, exatamente pela forte influência dos hackers em seus processos vitais. A cultura hacker também está escrevendo uma das mais contundentes críticas a opacidade dos códigos e ao bloqueio do fluxo de conhecimento tecnológico na sociedade da informação. Dela nasceram movimentos como software livre e fenômenos como a maior enciclopédia do mundo, a wikipedia.

Ao estudar a cultura hacker, o filósofo finlandês Pekka Himanen escreveu:

“A ética de trabalho dos hackers consiste em combinar paixão com liberdade, e foi essa a parte da ética dos hackers cuja influência foi sentida com maior intensidade.” (...) “um terceiro e crucial aspecto da ética dos hackers é a atitude dos hackers em relação às redes, ou seja, é a sua ética da rede, que é definida pelos valores da atividade e do cuidar. Atividade, nesse contexto, envolve a completa liberdade de expressão em ação, privacidade para proteger a criação de um estilo de vida individual, e desprezo pela passividade frente à procura pela paixão individual. Cuidar significa aqui a preocupação com o próximo como um fim em si mesmo e um desejo de libertar a sociedade virtual da mentalidade da sobrevivência que tão facilmente resulta de sua lógica.” (p.126)

Os hackers do movimento de software livre estão enfrentando as companhias que buscam monopolizar no planeta o controle dos intermediários da comunicação (softwares, códigos e protocolos da comunicação em rede). Estas companhias alegam que seus direitos de propriedade estão acima de todos os demais direitos, inclusive da liberdade de conhecer, do uso justo de uma obra protegida pelo copyright, do direito à privacidade, à segurança e ao anonimato. Enfim, estamos em uma novo terreno. Dele emanam a reivindicação de novos direitos, direitos de comunicação, de liberdade de expressão e da possibilidade democrática de tomar decisões em uma sociedade em rede, virtual ou ciberespacial. O debate mal começou.


BIBLIOGRAFIA


AFONSO, Carlos.(2005) Governança da internet: uma análise no contexto do processo da CMSI. In: Governança da internet: contexto, impasses e caminhos / organizador: Carlos Afonso. Rio de Janeiro: RITS.

BARLOW, John Perry.(1986) A declaration of the Independence of Cyberspace. Acessado em março de 2006, no site: http://homes.eff.org/~barlow/Declaration-Final.html .

CASTELLS, Manuel.(2003) A galáxia da internet: reflexões sobre a internet, os negócios e a sociedade. Rio de Janeiro: Zahar Editores.

GORZ, André.(2005) O imaterial: conhecimento, valor e capital. São Paulo: Annablume.

GUARINELLO, Norberto Luiz.(2003) Cidades-estado na antiguidade clássica. In: História da cidadania / organização: Jaime Pinsky, Carla Bassanezi Pinsky. São Paulo: Contexto.

HARAWAY, Donna J. (2000) Manifesto ciborgue: ciência, tecnologia e feminismo-socialista no final do século XX. In: Antropologia do ciborgue: as vertigens do pós-humano / organização: Tomaz Tadeu da Silva. Belo Horizonte: Autêntica. ( Coleção Estudos Culturais, 5)

HIMANEN, Pekka. (2001) A ética dos hackers e o espírito da era da informação: a importância dos exploradores da era digital. Rio de Janeiro: Campus.

LEMOS, André.(2003) Cibercultura. Alguns pontos para compreender a nossa época. In: Olhares sobre a cibercultura / organizadores: André Lemos, Paulo Cunha. Porto Alegre: Sulina.

LESSIG, Lawrence. (2005) Cultura livre: como a grande mídia usa a tecnologia e a lei para bloquear a cultura e controlar a criatividade. São Paulo: Trama.

LÉVY, Pierre. (1999) Cibercultura. São Paulo: Editora 34.

MAN, John.(2004) A revolução de Gutenberg. Rio de Janeiro: Ediouro.

MARSHALL, Thomas H.(1967) Cidadania, classe social e status. Rio de Janeiro: Zahar Editores.

MATTELART, Armand.(2004) A era da informação: gênese de uma denominação descontrolada. In: A genealogia do virtual: comunicação, cultura e tecnologias do imaginário / organizadores: Francisco Menezes Martins, Juremir Machado da Silva. Porto Alegre: Sulina.

POSTER, Mark.(2003) Cidadania, mídia digital e globalização. In: Por uma outra comunicação / organizador: Dênis de Moraes. Rio de Janeiro: Record.

RHEINGOLD, Howard. (1996) A comunidade virtual. Lisboa: Gradiva.

RIBEIRO, Gustavo Lins.(2000) Política cibercultural: ativismo político à distância na comunidade transnacional imaginada-virtual. In: Cultura e política nos movimentos sociais latino-americanos: novas leituras / organizadores: Sonia E. Alvarez, Evelina Dagnino, Arturo Escobar. Belo Horizonte: Editora da UFMG.

SELAIMEN, Graciela; LIMA, Paulo H. (2004) Cúpula mundial sobre a sociedade da informação: um tema de todos. Rio de Janeiro: RITS.

SILVEIRA, Sergio Amadeu.(2002) O mundo da cúpula da informação. Revista Communicare. Centro Interdisciplinar de Pesquisa da Faculdade de Comunicação Social Cásper Líbero, vol. 2, n.2, 2° semestre. São Paulo: Faculdade de Comunicação Cásper Líbero.

VIEIRA, Liszt.(2000) Cidadania e globalização. Rio de Janeiro: Record.

WEISSBERG, Jean-Louis.(2004) Paradoxos da telinformática. In: Tramas da rede: novas dimensões filosóficas, estéticas e políticas de comunicação / organizador: André Parente. Porto Alegre: Sulina.

WERBACH, kevin.(2003) Radio revolution: the coming age of unlicensed wireless. Washington, DC: New America Foundation, Public Knowledge. Obtido em dezembro de 2005 no site: www.newamerica.net/index.cfm?pg=article&DocID=1427 .

WOLTON, Dominique. (2003) Internet, e depois? uma teoria crítica das novas mídias. Porto Alegre: Sulina.

___________________. (2004) Pensar a internet. In: A genealogia do virtual: comunicação, cultura e tecnologias do imaginário / organizadores: Francisco Menezes Martins, Juremir Machado da Silva. Porto Alegre: Sulina.


SITES:


Electronic Frontier Foundation: www.eff.org
Eletronic Privacy Information Center: www.epic.org
Free Software Foundation: www.fsf.org
Global Internet Liberty Campaign: www.gilc.org
SAFERNET: www.safernet.org.br

Friday, September 15, 2006

ENTREVISTA na CAROS AMIGOS

A revista Caros Amigos, de setembro de 2006, trouxe uma entrevista comigo. Temas como software livre, pirataria, telecentros e cultura libertária estão nela. Segue a entrevista que está no site http://carosamigos.terra.com.br/:


RECEITA DE AUTONOMIA
o software livre e a luta pelo compartilhamento do conhecimento humano.
por Bruno Terribas

Sérgio Amadeu da Silveira atualmente coordena a ONG Rede Livre de Compartilhamento da Cultura Digital, que forma e capacita jovens para darem suporte aos cidadãos que queiram usar software livre ou de código aberto. Nesta entrevista ele explica que o usuário residencial não costuma usar software livre, nem pagar pela licença do software proprietário. O usuário residencial costuma, isso sim, usar uma cópia pirata do software proprietário – mas mesmo assim fica tecnicamente dependente da multinacional proprietária. Também nega Sérgio Amadeu que o domínio do software livre capacite menos para empregos do que o do software proprietário. Doutor em ciência política pela Universidade de São Paulo, Amadeu implantou e coordenou o Governo Eletrônico da Prefeitura Municipal de São Paulo, de 2001 até janeiro de 2003, período em que formulou e executou o plano de inclusão digital por meio de telecentros nas áreas mais carentes do município. Durante o governo Lula, foi diretor-presidente do Instituto Nacional de Tecnologia da Informação (ITI) do início de 2003 até agosto de 2005, além de coordenador do Comitê Técnico de Implementação de Software Livre no governo federal. É professor do curso de pós-graduação na Faculdade Cásper Líbero.

Qual tem sido seu principal projeto atualmente?
O projeto em que nós, da Rede Livre, estamos mais empenhados agora é formar um conjunto de jovens para dar suporte em software livre para cidadãos, usuários que a gente chama de residenciais, com objetivo de disseminar o uso de softwares livres pelas pessoas no seu dia-a-dia, porque a maior parte dos usuários residenciais é atendida pela chamada rede “ pirata ”. Quando surge algum problema no computador, eles chamam um técnico para consertar a máquina, configurar o computador e, ao mesmo tempo, instalar um conjunto de softwares “ piratas ” – não autorizados –, e essa pirataria, por incrível que pareça, é extremamente funcional para a manutenção do software proprietário. Ao usar um software não autorizado, de que você não tem licença para utilizar, está na verdade continuando a usar um software do monopólio de sistemas operacionais. Você continua a ser uma pessoa que usa aqueles formatos proprietários de arquivo, dentro do chamado ecossistema do software proprietário. A pirataria é extremamente funcional em manter uma base de usuários.

As empresas vêm exigindo cada vez mais conhecimentos de softwares específicos, na maioria das vezes proprietários.
Em geral, o próprio cara que está fazendo a entrevista com o candidato ao emprego não sabe exatamente que existem alternativas. Em vez de falar editor de texto, ele fala o nome do produto da Microsoft. Se você aprendeu a usar o Open Office – o conjunto de softwares livres que a gente tem para editor de texto, planilha de cálculo e fazer apresentações –, tem muito mais facilidade de usar não só aquele software, mas também os softwares proprietários. Porque em geral as pessoas que aprendem informática a partir de soluções livres costumam aprender dentro de uma diversidade de opções ; enquanto as que lidam com as soluções proprietárias aprendem as funcionalidades de um determinado software e não são adestradas para manejar outros softwares.

Como isso se dá na prática?
Quando eu estava em São Paulo, na gestão da Marta Suplicy, havia uma idéia segundo a qual os chamados governos eletrônicos, os que colocam serviços, informações na Internet – on-line – para que possam ser na verdade úteis para o conjunto da sociedade, têm que chegar aos estratos mais pobres, porque senão quem é da elite e tem computador em casa é melhor atendido do que quem mais precisa e está na periferia. Só que na periferia não tinha computadores, as pessoas não têm renda para manter uma conexão. Nós montamos uma rede de telecentros na periferia, onde as pessoas tinham acesso gratuito à Internet. Elas aprendiam em cima de soluções livres GNU /Linux, aprendiam Open Office, navegador Mozilla, e tivemos um sucesso tremendo. Muitos jovens aprenderam a usar esses softwares livres nos telecentros – exatamente por esse software ser livre e vir com o código-fonte – e alguns deles, que tinham talento, passaram a colaborar com o desenvolvimento desses softwares e deixaram a condição de usuários para entrar na de programador.

O software livre seria então uma questão filosófica e até libertária?
Sem dúvida. O bloqueio do conhecimento interessa a poucos, que querem manter os fluxos de riqueza. A idéia de que o conhecimento é livre é a base do software livre. O modelo usado para fazer o software livre passou a ser usado para fazer uma enciclopédia, a Wikipedia, que é hoje certamente a maior do mundo e se inspirou na idéia de compartilhamento de códigos do software livre. E não é um movimento só técnico. É social, cultural, e coloca a idéia de que o conhecimento tem que ser livre. O problema é que, numa sociedade onde os bens imateriais, os bens simbólicos, as informações adquirem importância econômica gigantesca, nunca foi tão fácil compartilhar conhecimento. E nunca foi tão difícil superar as barreiras impostas pelos grupos econômicos que querem manter o mundo na divisão obtida na velha economia industrial. Pretende-se impedir que as pessoas, que os povos se desenvolvam. A humanidade estava produzindo cada vez mais obras culturais e o número de obras que entra para bens públicos estava diminuindo, porque o que está acontecendo hoje é uma pressão enorme para endurecer a legislação, para estender os prazos da lei de copyright, tentar ampliar e patentear tudo o que for possível.

Qual foi a importância de implantar o software livre na prefeitura de São Paulo?
O software livre permite conhecer o que você está usando, reduzir custo, porque não se baseia no pagamento de licenças. As vantagens são totais. Qual era nossa dificuldade? Era montar uma equipe de suporte, porque seriam vários telecentros. Montamos, com um técnico que conhecia bem software livre, Linux principalmente, e ele passou a treinar as outras pessoas e também chamamos pessoas que sabiam. O custo de suporte acabou sendo muito pequeno, era uma equipe nossa, e o que deixamos de gastar com licenças foi uma coisa enorme. E chegamos a ter 500.000 usuários. Hoje, todo esse pessoal está contratado, trabalhando para grandes empresas. Porque tem uma demanda enorme para software livre. E a possibilidade de profissionalização é muito maior no software livre do que no mundo do software proprietário.

Bruno Terribas é estudante de jornalismo.

Wednesday, September 13, 2006

HAVARD CONFIRMA TESE SOBRE CORSÁRIOS DIGITAIS

Um estudo feito por dois pesquisadores de Harvard, muito alardeado ontem na rede, fala que a pirataria ajuda a manter o windows. Isto vem reforçar uma pesquisa que fiz em 2004 que gerou o paper Corsários Digitais, Estado e Monopólio de Algoritmo. O paper foi publicado em 2005 em uma coletânea sobre propriedade intelectual pela editora Juruá.

No texto procurei mostrar que a chamada pirataria é quem dá o verdadeiro suporte aos usuários residenciais de soluções proprietárias. O uso residencial das cópias não-autorizadas tem assegurado uma grande massa crítica de pessoas capacitadas nas soluções proprietárias. O texto descortina a relação extremamente funcional e aparentemente antagônica entre a ação repressiva do Estado, a rede de distribuição de cópias não-autorizadas e a consolidação dos monopólios de algoritmos. Nessa interação, o Estado tem tratado os bens intangíveis como bens escassos, gerando artifícios jurídicos extremamente difíceis de consolidar, pois se baseiam em falsas premissas.

A seguir leia a matéria sobre o estudo dos pesquisadores de Harvard:


Estudo polêmico diz que pirataria de software favorece Windows
Por Matthew Broersma, para o IDG Now!*
Publicada em 11 de setembro de 2006 às 18h26
Atualizada em 12 de setembro de 2006 às 11h17
E-mail | Imprima | Erros? | a a a

Londres - Dois pesquisadores de Harvard criam modelo para analisar a
competição entre o Windows e Linux e chegam a conclusões
surpreendentes.

A pirataria de software ao contrário do que pensa o senso comum pode
ajudar a Microsoft em sua batalha contra o Linux.

Essa é uma das conclusões de um estudo polêmico de dois pesquisadores
da Harvard Business School, dos Estados Unidos.

O texto acadêmico (Dynamic Mixed Duopoly: A Model Motivated by Linux
vs. Windows) foi escrito pelo professor assistente Ramon
Casadesus-Masanell e pelo professor Pankaj Ghemawat e publicado em uma
edição especial da revista Management Science.

Os dois basearam seus estudos em modelos econômicos simplificados para
recriar a dinâmica de competição entre o Windows e o Linux, no qual o
Windows tem participação de mercado e lucratividade de seu lado,
enquanto o Linux beneficia-se de um ciclo de desenvolvimento mais
rápido e de um custo mais baixo.

Casadesus-Masanell e Ghemawat, para surpresa deles mesmos, descobriram
que as vantagens do Linux sozinhas não significam que com isso ele vai
superar o Windows, que se beneficia inicialmente de seu poder
dominante de mercado.

Um fato que poderia ajudar o Linux a ganhar espaço são os "compradores
estratégicos" - grandes empresas e governos, que se sentem mais
confortáveis em ter acesso ao código fonte.

"Esta deve ser uma das razões porque a Microsoft está fornecendo
acesso ao código fonte do Windows para os governos", disseram os
pesquisadores.

Outra surpresa, segundo os pesquisadores da Harvard Business School, é
que a pirataria do Windows pode, na verdade, ajudar a Microsoft. Isso
porque quanto mais pessoas usam o software, maior é o efeito rede, o
que torna o Windows mais valioso e permite que a Microsoft cobre mais
por ele.

O estudo diz também que a pirataria do Windows ajuda a reduzir o
entusiasmo pelo Linux. "Descobrimos que em países onde a pirataria é
alta, o Linux tem as taxas mais baixas de penetração", disseram
Casadesus-Masanell e Ghemawat.

A terceira descoberta dos estudiosos é que o Linux não significa
necessariamente um efeito de bem-estar social melhor do que o Windows.

"Com o monopólio, os esforços para desenvolver um novo software e
melhorar uma plataforma são direcionados para um único sistema e isso
pode ser melhor em uma perspectiva de bem-estar social", escreveram os
pesquisadores.

Os dois pesquisadores admitem que o modelo econômico que construíram
para estudar os impactos do Windows e do Linux é bastante simplificado
e pode não refletir fatores importantes que existem no mundo real.

Detalhes da pesquisa podem ser conferidas em uma entrevista dos dois
pesquisadores (em inglês).

Monday, August 28, 2006

3 festival de software livre da Bahia

Estive lá e apresentei a palestra REDES VIRAIS, OPEN SPECTRUM E O FUTURO DA COLABORAÇÃO. Era sábado às 17 horas. Depois, Rafael Evangelista veio à Mesa e começamos um debate com o pessoal que estava na sala Castro Alves assistindo a exposição. Muitos assuntos importantes foram discutidos, mas gostaria de ressaltar um deles. Vários dos presentes alertaram para o perigo das tecnologias DRM. Além da violação da privacidade foi apontado a tentativa da indústria de software proprietaŕio bloquear o crescimento do software livre. Como? Simples, quem não utilizar um sistema operacional que aceita as regras do DRM deixará de conseguir ouvir e ver uma série de músicas e vídeos. Segundo um dos membros da delegação de software livre de MG, uma cantora brasileira famosa (não vou escrever seu nome em protesto!) já lançou seu último CD que só pode ser ouvido em aparelhos que tenham DRM. Assim, quem tem Linux não poderá ouvir suas músicas no computador. Acho necessário denunciarmos e esclarecermos as pessoas sobre os abusos aos direitos históricos que o DRM está querendo impor.

Sunday, August 13, 2006

SCIENCE OF WEB

No Carderno Mais, do domingo, dia 13 de agosto, foi publicada a matéria "Tecnociência Pura: Tim Berners- Lee e colegas querem criar ciência da web, que abarcaria diversas disciplinas", escrita pela jornalista Mariana Tamari. A idéia de Berners-Lee e outros cientistas é criar um novo campo científico com o foco na web.

Abaixo coloco as respostas que dei à Mariana. Elas são úteis para entender melhor minha posição sobre a nova ciência.

Queria saber o que você acha dessa iniciativa. Ela tem alguma relevância para os estudos que relacionam a web com a sociedade, que pesquisadores como você já vêm desenvolvendo?

Primeiro é preciso constatar que a web é uma realidade em expansão. O hipetexto agora agrega sons e imagens em movimento. Tim Berners-Lee foi o seu principal criador quando estava no CERN, em Genebra. A web, entendida como modo gráfico da Internet, é apenas uma parte da rede, sem dúvida a mais evidente e que assegurou o seu sucesso imediato. Quando Berners-Lee e outros propõem criar a "ciência da web", eles estão produzindo um foco de atenção e de análise para o estudo das redes. Certamente estão propondo o estudo do fenômeno a partir da complexidade de sua interface. Podemos notar isso quando Berners-Lee e outros escrevem que a "Web science is about more than modeling the current Web. It is about engineering new infrastructure protocols and understanding the society that uses them, and it is about thecreation of beneficial new systems." Os softwares interpretem o protocolo http e permitem o modo gráfico da Internet fazem parte de uma das camadas de comunicação de dados, a chamada camada de aplicação. Existe, por exemplo, a camada de transporte (TCP, UDP, etc), a camada de rede (IP, ICMP, IPsec, etc), a camada de ligação de dados ( Ethernet, Token Ring, PPP, etc), a camada física (ISDN, DSL, etc). A web existe sobre uma série de outras invenções que viabilizam a comunicação em rede. É claro que é possível estudar as redes a partir de sua aplicação mais aparente e que gera necessidades nas demais camadas e, por sua vez, cria necessidades de alteração nos demais mecanismos que compõem a rede. Por outro lado, é inegável o impacto das redes informacionais na sociedade e por isso, a sociologia, a antropologia, a ciência política, a comunicação, e outras ciências, continuarão avançando seus estudos sobre esses fenômenos a partir de seus instrumentos teóricos. Por exemplo, o sociólogo Manuel Castells formulou a noção de sociedade em rede, isto abriu várias linhas de pesquisa e gerou inúmeros trabalhos consistentes nas ciências humanas.

Segundo, concordo com Bruno Latour (autor de Ciência em Ação) de que o cientista é um ator social que utiliza estratégias persuasivas para conquistar aceitação de seus enunciados. De certo modo, Latour caminha na mesma linha de Thomas Kuhn, defensor de que a base da ciência está na comunidade científica e nos seus paradigmas dominantes. O conhecimento científico está vinculado a convenções socialmente estabelecidas e reproduzidas. O conhecimento científico e a criação de um novo campo desse conhecimento depende do consenso paradigmático entre os membros da comunidade científica. Se físicos, engenheiros, sociólogos e juristas concordarem e aderirem o campo multidisciplinar chamado ciência da web ganhará força.


Em que, especificamente, a criação desse novo ramos da ciência ajudaria na evolução dos estudos da web e do seu crescimento?

Considero que a proposta de Tim Berners-Lee e outros pode acabar seguindo a trajetória da Ecologia. Ernest Haeckel propôs um novo campo de estudo das relações entre os seres vivos e o seu ambiente orgânico e inorgânico em 1870, a Ecologia. A Biologia, a geografia, a física, a química e a própria antropologia são ciências necessárias para compor o terreno da Ecologia. O seu surgimento e evolução foi tornando-se fundamental quanto mais a humanidade descobria que sua ação industrial e exploratória desmedida criava impactos em cada microcomponente do planeta, inclusive nele, o homem. A ecologia se firmou como campo científico. Acredito que o estudo focalizado no fenômeno das redes, a partir da web, pode ser útil quanto mais a sociedade incorpore a comunicação mediada por computador em seu cotidiano. Assim como, a Ecologia nasceu da Biologia e depois tornou-se mais abrangente que ela, ou seja, acho possível uma ciência da web, que partindo das ciências da computação avance para incorporar outras formas de olhar e analisar mais amplas e advindas de outros campos do conhecimento. Acho que se trata de um esforço multidisciplinar que só tem sentido ser proposto devido ao gigantesco impacto da web, como maior expressão da comunicação em rede, já surgida na humanidade.


Já não existem universidades e departamentos específicos que tratam desse tema?

Steven Johnson no livro "Emergência: a dinâmica de rede em formigas, cérebros, cidades e softwares" tratou de popularizar a teoria sobre comportamentos complexos e sofisticados que nascem de agentes simples. Por exemplo, as propriedades do cérebro não podem ser extraídas de nenhum neurônio particular, dito de outro modo, o neurônio é extremamente simples e nada inteligente, já o cérebro é altamente sofisticado e uma verdadeira máquina biológica de processamento, controle e transmissão de informações. E a web? É um enorme cérebro, um grande repositório do conhecimento? Será possível entendê-la somente observando os seus componentes? A Internet e a web vêm sendo estudadas por vários departamentos e ciências. Por exemplo, a pós-graduação da Cásper Líbero tem uma matéria que eu ministro sobre a Internet, voltada a análise das redes do ponto de vista comunicacional. A PUC tem pesquisadores que analisaram a Internet do ponto de vista semiótico. A USP tem mestrandos estudando a teoria matemática da comunicação para viabilizar redes virais ou redes mesh. Enfim, existe um objeto de estudo forte e identificável ( a web) que cada campo do conhecimento somente pode apreendê-lo parcialmente. Isto justificaria uma ciência da web que eu prefiriria chamar de ciência da rede. Mas as redes são formações muito antigas utilizadas há milhares de anos pela humanidade. Foi necessário o surgimento da Internet e da web para que a proposição de um campo científico voltado a seu estudo possa ser discutido e encarado seriamente. A ciência, ou seja, toda a ciência é historicamente determinada.

Friday, August 11, 2006

PROPRIEDADE INTELECTUAL, MONOPÓLIOS DO CONHECIMENTO E SOFTWARE LIVRE

by Sérgio Amadeu da Silveira


Existem diversos modelos de desenvolvimento e uso de software, mas dois deles são claramente opostos em seus objetivos e métodos. O modelo proprietário tem como procedimento inerente negar o acesso ao conhecimento contido no software, por isso baseia-se no código-fonte fechado e no desenvolvimento não-compartilhado. Já o modelo de software livre busca transferir continuamente o conhecimento essencial presente no software. Para isso, é necessário a abertura do seu código-fonte, o que viabiliza o desenvolvimento colaborativo das soluções.

A visão sobre a criação e a difusão do conhecimento tecnológico é a questão central que diferencia os dois modelos. Os defensores do modelo proprietário pregam que a base da criatividade é a propriedade. Sem ela, não haveria incentivos suficientes para a contínua produção de novidades. A humanidade só teria interesse em criar se puder retirar das suas criações o máximo benefício econômico. Os defensores do software livre defendem que a liberdade e o compartilhamento do conhecimento é a base da criatividade. Observam a história da ciência e notam que seu gigantesco avanço foi resultado de uma série de fatores, mas certamente o acúmulo contínuo do conhecimento e troca livre de saberes foram elementos fundamentais que determinaram o ritmo da evolução científica.

O fato é que existe atualmente uma mobilização colaborativa planetária, ou seja, em praticamente todos os países existe a comunidade de software livre. Este movimento é crescente e capaz de realizações tecnológicas extremamente poderosas, tal como o software Apache que está sendo utilizado por aproximadamente 70% dos servidores de páginas web no mundo. Um dos principais sites que registram os projetos de software de código aberto e não-proprietário é o source forge. Um levantamento realizado nos primeiros dezenove dias de março de 2005 possibilitou constatar 99 mil e 107 projetos colaborativos, envolvendo 1.056.568 de desenvolvedores registrados. Em janeiro de 2004, o mesmo site registrava 75 mil projetos e um pouco mais de 780 mil pessoas envolvidas (TAURION, 2004: 77). O crescimento é contínuo e acelerado. Em abril de 2001 existia um pouco menos de 18 mil projetos e 145 mil programadores. Em outubro de 2002, passaram para 49 mil projetos e aproximadamente 500 mil programadores (GUROVITZ, 2002:19-20).

Nas principais áreas de fronteira tecnológica, ao contrário do que é divulgado pelos defensores do monopólio proprietário, a mobilização colaborativa é intensa. Existem atualmente somente no segmento de Clustering 378 projetos. Na área de desenvolvimento de computação distribuída existem 729 projetos (agosto de 2005). Com a inserção da indústria cinematográfica no mundo do código aberto, principalmente com o sucesso das produções da DreamWorks intensifica-se também os projetos de Games e entretenimento. Em agosto de 2005, podíamos contar no repositório do Source Forge 1075 projetos colaborativos de simuladores, 1893 projetos de jogos de estratégia em tempo real, 1009 projetos de MUD (Multi-User Dungeons), entre centenas de outros tipos de jogos.

Como defender que o navegador Mozila ou o Firefox desenvolvidos compartilhadamente não possuem qualidade? Que tipo de percepção enviesada é necessária para continuar afirmando que não podemos usar softwares livres por não serem sustentados por grandes empresas responsáveis pelos seus códigos? Como acreditar que somente o modelo de desenvolvimento proprietário é capaz de gerar inovações diante de tantas evidências observadas na prática tecnológica? Como é possível continuar afirmando que um software inseguro e instável que possui seu código-fonte fechado é melhor que um software aberto, estável e que pode ser completamente adequado as necessidades do mundo corporativo tal como o GNU/Linux?

Em geral, isto acontece por três fatores nada desprezíveis: o desconhecimento; as técnicas de aprisionamento do mundo proprietário e a estratégia de marketing dos monopólios de algoritmos. O primeiro fator é estritamente cultural e está sendo alterado gradativamente. O desconhecimento ocorre de vários modos. Existe a ignorância sobre a existência de um novo modelo. Muitas pessoas acreditavam que só era possível existir softwares proprietários, entre estes, alguns só conheciam produtos de uma única empresa. Outros não sabiam da existência de soluções livres e abertas para quase todas as áreas. Mas, certamente o desconhecimento mais difícil de lidar é daqueles que não querem conhecer, seja por desânimo ou por preconceito, em geral, ideológico. Alguns técnicos estão fora de sintonia com a chamada sociedade do conhecimento e acreditam não ser necessário aprender sempre. Esta postura baseada no desânimo militante é o principal aliado da manutenção do modelo proprietário.

As técnicas de aprisionamento também são essenciais para manter o modelo provisoriamente hegemônico de software. A indústria do software proprietário cria incompatilidades e artifícios exatemente para manter o seu cliente fidelizado ( na linguagem do marketing) ou aprisionado (na linguagem da Economia). Este modo de procededer é responsável por inúmeros gastos desnecessários de governos e empresas, mas ele é indispensável ao modelo proprietário. Se a interoperabilidade e a compatilidade fossem a regra, seria extremamente possível realizar migrações mais rápidas e menos complexas de um modelo para outro, de um conjunto de produtos para outro conjunto. O modelo proprietário é extremamente dispendioso e voltado mais para o benefício da empresa desenvolvedora do que para seus clientes-usuários. Esta é uma desvantagem que está cada vez mais sendo notada pelos usuários e já vem motivando a mudança para o modelo aberto.

Por que não ter o código-fonte dos sistemas e softwares que são utilizados por uma empresa ou órgão público? A quem beneficia o não-acesso a estes códigos? Qual a vantagem de não tê-los? Ao contrário, a posse dos fontes permite que novos desenvolvimentos sejam realizados com qualquer empresa e não somente com aquela que desenvolveu a primeira versão. O acesso ao código-fonte permite ao usuário a compatilidade dos novos sistemas com os anteriores e permite a redução de custos, além de maior segurança, uma vez que possui auditabilidade plena sobre o que está utilizando. Assim, para evitar as facilidades de escolha e de mudança aos usuários é que o modelo proprietário também nega acesso ao código-fonte. Um dos maiores fatores de aprisionamento dos usuários não-corporativos é a chamada “pirataria” que será tratada mais a frente.

A estratégia de marketing das mega-corporações de softwares e aplicativos básicos é outro elemento vital da redução do ritmo de implantação de software livre. Ela combina volumosas verbas publicitárias, doação de equipamentos e laboratórios para universidades carentes de recursos, contratos de exclusividade, pressão sobre empresas de hardware, FUD (Fear, Uncertainly and Doubt, ou seja, a técnica de espalhar o medo, a incerteza e a dúvida) e ação de lobbies, principalmente sobre o Estado. Entretanto, isto não consegue impedir o avanço do modelo colaborativo. Apenas, retarda a substituição do paradigma hegemônico de desenvolvimento e uso de software.

Uma comparação feita pela Revista Wired, em fevereiro de 2005, demonstra a existência de segmentos em que o desenvolvimento não-proprietário já é dominante. Os percentuais relacionam o produto à totalidade do mercado daquele segmento. Os primeiros produtos em cada segmento são propriedade da Microsoft, os segundos são os principais produtos não-proprietários: Browsers (IE 92%, Firefox 4%); Desktop (Windows 95%, Linux 3%); Application Servers (Windows 62%, Linux 19%); Databases (SQL Server 64%, MySQL 49%); Web servers (IIS 21%, Apache 68%); Mail Servers (Exchange 10%, Sendmail 41%); Email client (Outlook Express 19%, N/A); Web enciclopédias (Encarta Premium 68,000 entradas; Wikipedia 431,195 entradas).1

O movimento colaborativo está prestes a criar massa crítica junto aos usuários residenciais. Acontecendo isto, a tendência é sua velocidade de expansão acelerar. Em paralelo, o paradigma proprietário já emite sinais de saturação. Quando um paradigma técnico ou científico começa a esgotar-se ele tenta absorver elementos do paradigma concorrente para prolongar sua existência hegemônica. Isto não quer dizer que o modelo proprietário será extinto, isto significa que perderá força e será minoritário. Quando o monopólio de software proprietário passa a oferecer uma parte ou a totalidade do seu código-fonte para governos e grandes corporações, mesmo sem a possibilidade de compilação, mesmo com a exigência de um acordo de confidencialidade, isto é a maior demonstração de que o modelo de código fechado não pode ser considerado a priori seguro, como seus vendedores gostavam de falar. Abrir o código é elemento do novo paradigma, não do paradigma proprietário.

Para conter o crescente uso do software livre no segmento educacional e de inclusão digital, muito mais barato e estável, portanto, com custos de manutenção bem menores, o monopólio de software proprietário passa a entregar licenças gratuitas. Ora quem não cobra pela licença de uso do software é o modelo livre. Mas absorver elementos do novo paradigma é um dos sinais mais evidente de esgotamento do modelo de remuneração baseado no pagamento de licenças de propriedade. A maior empresa de software proprietário do mundo já diz trabalhar com o conceito de open source, hoje apenas para confundir, mas em breve por necessidade real.

A mobilização colaborativa em torno do código aberto cresce porque está de acordo com as possibilidades geradas por uma sociedade cada vez mais conectada e em rede. Esta percepção foi muito bem apontada pelo Professor Imre Simon: “A rede Internet está protagonizando um fenômeno novo, sem precedentes na história da nossa civilização, cujas consequências consideramos potencialmente imprevisíveis no momento. Estamos nos referindo à criação cooperativa de bens de informação por centenas, às vezes milhares de autores que se comunicam através da Internet. Mencionamos duas instâncias deste fenômeno, ambas quase inteiramente contida nos últimos dez anos: o advento do sistema operacional GNU/Linux e a construção do conteúdo coletivo da “world wide web”.


NEGAÇÃO DE ACESSO E MONOPÓLIO

A teoria econômica clássica aponta que os monopólios acabam reduzindo o ritmo das inovações, criando distorções de valor e ineficiências. Por isso, a concorrência é enaltecida. O mais interessante é constatar que apesar disso, a propriedade de idéias é baseada em monopólios temporários cedidos pelo Estado ao criador ou inventor. Quando surgiu a proteção legal à propriedade das idéias, esta visava o benefício social e a superação do segredo em relação a uma técnica. Por isso, em troca da socialização de um invento ou técnica, o Estado daria o direito de exploração exclusiva daquele invento ou técnica ao seu criador, por um determinado tempo. O objetivo era garantir o fluxo do conhecimento e não interrompê-lo. O objetivo era assegurar a incorporação das técnicas pela sociedade e não a constituição de uma economia de monopólios. O monopólio temporário de um invento era entendido como um mal necessário e um preço que se pagaria por sua socialização.

Isto não retira a constação da enorme existente na economia das idéias que tem sua remuneração alicerçada na garantia política, ou seja, estatal, da prática de monopólio. Em excesso, esta prática pode acabar perdendo suas qualidades e fazendo emergir suas distorções.

O software talvez seja o mais típico dos bens informacionais, a mais representativa criação da era da informação e um dos principais produtos da economia das idéias ou dos bens intangíveis. Exatamente por ser um bem imaterial, suas qualidades são completamente distintas dos bens materiais. A propriedade sobre uma idéia, uma informação, um algoritmo, um software, ou seja, sobre bens intangíveis é realizada pela negação do acesso. A propriedade de algo que não possui existência física é extremamente complexa.

Os bens intangíveis não possuem as duas características econômicas principais dos bens materiais: a escassez e o desgaste pelo uso. Um produto material para ser produzido em quantidade requer um conjunto de materiais que são finitos e, portanto, sofrem o fenômeno da escassez. Um software para ser reproduzido não exige nada além de uma mídia para a reprodução. Pode ser copiado em rede um vez ou um milhão de vezes. O número de cópias é irrelevante, exatamente por ser um bem imaterial inexiste escassez e desgaste em cada cópia. Além disso, o custo adicional de reprodução de uma cópia é igual a zero, ou é igual ao preço do suporte utilizado para a sua reprodução.

Richard Stallman, fundador do movimento pelo software livre, costuma afirmar que quando duas pessoas trocam maçãs, nada de especial acontece. Uma pessoa que dá sua maçã para a outra e recebe da outra uma maçã em troca, assim cada uma continua com uma única maçã. Isto não ocorre com bens imateriais. Caso duas pessoas troquem idéias, o fenômeno é completamente diferente. Se duas pessoas dão uma idéia, uma para a outra, elas ficam com duas idéias cada uma. Qual a diferença? Quando passo minha idéia ao outro não fico sem esta idéia, continuo com ela. Isto quer dizer que o bem imaterial pode ser clonado, copiado, reproduzido sem nenhuma perda ou desgaste do original.

Estas características é que tornam a propriedade sobre idéias, informações, bens informacionais em geral, completamente dependente da proteção política, ou seja, da lei e do aparato jurídico-repressivo do Estado. Por este motivo, existem somente algumas possibilidades de exercer propriedade sobre informações: a primeira é não as divulgando. A segunda é tentando realizar um controle de acesso. A terceira é pela ação do Estado que agiria contra aqueles que têm o acesso negado pelos criadores da informação. Nesse sentido, a principal forma de propriedade de bens informacionais e imaterias é exclusivamente política.

Apesar destas gigantescas qualidades dos bens informacionais, das idéias e do conhecimento (entendido como informações codificadas, organizadas e processadas), ou seja, não ser escassa, não se desgastar, não se perder quando copiada, em nossa história sócio-econômica isto passou a ser considerado o grande problema. Na verdade, é um grande problema para aplicar sobre estes bens imateriais o contrato de propriedade fundado no princípio das coisas escassaz, não-reprodutíveis a um custo igual a zero e com sua reprodução centrada na exigência de nova matéria-prima. Como resolver este problema? Com o monopólio da definição do acesso dado ao criador.

O problema é quando o monopólio que antes era temporário passa a ser centenário. As legislações estatais ao estenderem o direito de propriedade de um bem imaterial, uma idéia, um conjunto de algoritmos, por mais de 95 anos após a morte do criador estão invertendo a lógica inicial da proteção. Não é mais a sociedade que interessa. Não é mais a garantia do fluxo do conhecimento que importa, mas o que interessa é assegurar a lucratividade máxima para um agente econômico e negar o acesso ao bem protegido pelo maior tempo possível. O exagero passa a sobrepor o controle ao fluxo do conhecimento.

Para incentivar a inovação e a criação, os monopólios são péssimos. Com a expansão dos prazos de monopolização de conhecimento coloca-se em risco as possibilidades de criação e de compartilhamento dos inventos, das grandes sacadas, o que foi fundamental para o gigantesco progresso técnico-científico alcançado pela humanidade até meados do século XX.

No processo que o Departamento de Estado norte-americano moveu contra a Microsoft, os economistas Joseph Stiglitz e Jason Furman apresentaram uma declaração a partir de um estudo que lhes fora encomendado pela Computer & Communications Industry Association, no final de 2002. É importante notar que do ponto de vista da teoria econômica não existe consenso sobre os impactos do monopólio sobre a propriedade intelectual, como é possível notar na declaração a seguir:

"A indústria da tecnologia da informação é caracterizada pela rapidez das mudanças tecnológicas. Como a moderna teoria da competição e monopólios enfatiza, é importante focar não apenas aquilo que afeta o consumidor hoje, mas também como a mistura de monopólio, competição e regime de propriedade intelectual afeta o ritmo e a direção do processo de inovação.
Schumpeter acreditava que o receio de perda das rendas do monopólio levava os monopolistas a continuar inovando, usando os lucros para financiar as inovações. Entretanto, o ritmo com que as inovações são introduzidas poderia ser mais rápido se o poder dos monopólios fosse podado.
O monopólio diminui o passo das inovações de quatro maneiras.
Primeira, inovações precedentes são os principais insumos de inovações subseqüentes. O poder monopolista aumenta o custo de se buscar inovação. E quando se aumenta o custo de um insumo numa atividade, o nível desta atividade cai.
Segunda, com mais barreiras à entrada num negócio, a ameaça de competição schumpeteriana e, portanto, os incentivos para inovar diminuem. Num caso extremo, se um monopólio se assegurar de que não há ameaça de competição, ele não investirá em inovações.
Terceira, a própria inovação pode ser mal-direcionada afim de garantir o aumento tanto das barreiras de entrada quanto dos custos dos rivais. Em sistemas operacionais, o desenvolvimento de padrões proprietários alternativos e a construção de middleware não-interoperável são exemplos de inovações que podem potencialmente reforçar o poder monopolista.
Quarta, os incentivos de um monopólio para inovar são limitados. Como o monopolista produz menos que o socialmente ótimo, as economias com uma redução no custo de produção são menores do que num mercado competitivo. Também os incentivos para um monopolista patrocinar pesquisas não as levarão ao nível socialmente eficiente. Preferencialmente sua preocupação é inovar apenas no ritmo necessário para afastar a competição, um ritmo marcadamente menor que o socialmente ótimo.
Em resumo, monopolização não ameaça os consumidores apenas pelo aumento dos preços e pela redução da produção, mas também reduz a inovação no longo prazo." (STIGLITZ & JASON)

Todo o esforço teórico-doutrinário para defender o monopólio sobre a criação como fundamento do incentico à criação, além dos riscos apontados por Stiglitz e Jason, trata-se de uma argumentação econômica empiricamente fragilizada, pois desconsidera o que Prof. Yoshai Benkler denominou de "commons-based peer-production". Empiricamente constata-se a evolução constante da produção compartilhada de software e, agora com o movimento Creative Commons, também de músicas e outras criações culturais. Também é possível observar o modelo de desenvolvimento "bazar" (termo empregado por Eric Raymond para falar do desenvolvimento distribuído e anarquico do software aberto) que está sendo aplicado em inúmeros projetos internacionais de software, e atualmente envolve aproximadamente 150 mil programadores na construção e correção de cada nova versão do GNU/Linux. O que cada colaborador desta rede de desenvolvimento cede ao produto é bem menor do que o ganho que pode obter posteriormente com o uso deste programa colaborativo. Este processo também foi denominado de gift economy, ou economia da doação.

Benkler, no artigo Coase´s Penquin, or, Linux and The Nature of the Firm, publicado em 2002 no The Yale Law Journal, defendeu que a Internet está viabilizando a produção colaborativa entre pares (common-based peer-production), um conjunto de novas formas cooperativas de produção de informação, conhecimento e cultura em oposição aos mecanismos habituais de propriedade, hierarquia e mercados. Eles estariam baseados na troca e compartilhamento voluntário de trabalho:

“O papel das normas, o papel da tecnologia, e a interação entre voluntarismo e ganho econômico na formação da motivação e organização de uma produção colaborativa são também áreas de pesquisa importantes, particularmente o estudo de como as comunidades de colaboradores se aglutinam em torno de projetos. Estudos qualitativos e quantitativos da importância da produção colaborativa [peer production] na economia informacional geral, em particular na economia informacional baseada na Internet, forneceria uma melhor compreensão sobre quão periférico ou central é esse fenômeno. Para firmas, a emergência da produção colaborativa pode requerer um deslocamento mais agressivo, a partir de modelos negociais baseados em produtos informáticos, em direção a modelos negocias baseados em serviços.” (BENKLER, 2002: 77)

Projetos inovadores estão sendo realizados fora do modelo hegemônico de direitos de propriedade e têm gerado ganho economicamente distribuídos entre os desenvolvedores destes projetos que não se formaram a partir da exigência dos direitos exclusivos sobre a propriedade daquelas idéias. Esta constatação enfraquece profundamente o paradigma da exigência do monopólio econômico da exploração da obra ou invento como elemento essencial para a obtenção de ganho econômico e para incentivo à criatividade e à inovação.


PARA QUE NEGAR O ACESSO AO CÓDIGO-FONTE? PARA EVITAR A PIRATARIA?

Um dos principais argumentos utilizados para defender o modelo proprietário baseado no código-fonte fechado é que com a sua abertura os piratas roubariam os códigos. Trata-se de uma das miragens contemporâneas mais frequentes. Como toda miragem não resiste a realidade. O código-fonte fechado não tem como objetivo evitar a pirataria, mas impedir o livre fluxo do conhecimento com vistas a reduzir o ritmo da inovação que poderia ser feita sobre este código.

A pirataria de software é feita sobre o código executável e não sobre o código-fonte. Um dos softwares mais copiados ilegalmente é o Office. Seu código-fonte está fechado e nem por isso, a pirataria é barrada. O que se pretende com a opacidade dos fontes é evitar que outros possam desenvolver soluções melhores. Por isso, para retirar o máximo de proveito de uma determinada solução informacional é que se faz necessário o código fechado.

Aqui também é importante observar melhor o fenômeno da pirataria. Sem ela seria difícil estabalecer monopólios de algoritmos. O mecanismo é bem claro. O monopólio de software sabe que quanto mais usuários residenciais utilizarem seu software mais ele mantém uma massa crítica indispensável para a fidelização do mundo corporativo. Assim, o custo das licenças já prevê que o mercado pagante é o das empresas e instituições, públicas e privadas.

Nesse sentido, a pirataria é indispensável para a manutenção de uma grande massa crítica para o monopólio. O Estado é indispensável para obrigar o mundo corporativo a pagar pelas licenças de propriedade. Enquanto empresas pagam, o Estado faz vistas grossas para a pirataria residencial. Até por que se começasse a obter mandados judiciais para verificar os computadores residenciais, encontraria uma infinidade de softwares piratas. As pessoas teriam que ser punidas e isto fortaleceria o paradigma oposto, faria o movimento de software livre ganhar mais força.

O modelo de remuneração dos monopólios de software proprietário é insustentável e inviável para usuários residenciais. Basta comparar o preço das licenças de propriedade:2

LOJA KALUNGA

Corel draw 12 full portugues windows Corel CX 1 UN
Popular programa para desenhos vetoriais
R$1.499,00

Office 2003 standard cd port full 021-06316 Microsoft CX 1 UN
Popular suite de escritorios
R$1.499,00

LOJA BRASOFTWARE

Photoshop CS 8.0
Principal programa para tratamento de imagens
R$ 2.822,63

Adobe Illustrator CS
O software gráfico vetorial padrão do setor gráfico
R$ 2.407,13

After Effects 6.5 Standard
Ferramenta para animação gráfica e efeitos visuais
R$ 3.227,05

Adobe InDesign CS
Layout e design profissionais
R$ 3.974,95

Adobe Acrobat 6.0 Professional
Controle avançado de troca e impressão de documentos.
R$ 1.415,00

Flash MX 2004 Professional
Ferramenta de animação para web
R$ 2.127,82

Fireworks MX 2004
Cria, otimiza e integra gráficos para a web.
R$ 908,05

Dreamweaver MX 2004
Popular programa que cria sites e aplicativos de nível profissional para a web.
R$ 1.217,06

Algumas licenças de software bem populares tem o mesmo preço do computador. Um absurdo. É óbvio que a maioria das pessoas em suas casas não pagam por estas licenças, ao mesmo tempo, que esta prática é extremamente funcional a manutenção da hegemonia do paradigma proprietário. Por este motivo a pirataria de software não devia ser chamada de pirataria, mas de prática corsária. Corsários eran piratas a serviço de um poder. A pirataria beneficia os monopólios de software e algoritmo, portanto, na verdade os piratas são corsários digitais, pois servem a manutenção do poder monopolista. O movimento de software livre é alternativa efetiva a prática ilegal de uso não autorizado de licenças de propriedade.

O MODELO PROPRIETÁRIO É PREJUDICIAL AO ESTADO

Por que pagar dezenas vezes pelo mesmo trabalho? Por que não otimizar os gastos públicos? Por que não criar mais soluções novas do que pagar várias vezes pelas mesmas soluções já pagas? Um dos pincípios do Estado é o da economicidade. Por ele, o modelo de software livre seria adotado quase exclusivamente. As vantagens para o Estado com o uso do software livre são bem superiores as que podem ser obtidas com o modelo proprietário de aquisição.

Quando se adquire um software livre, o Estado tem o código-fonte desse software documentado e uma licença permissiva de uso, contendo 4 liberdades: a liberdade de usar o software para qualquer fim, de estudá-lo sem restrições, de alterá-lo e de redistribuir suas alterações. Com isto, ao invés de comprar inúmeras vezes licenças de propriedade, o Estado economiza e compra uma única vez o desenvolvimento do software. Por ser dono do que comprou e pagou, o Estado tem maior autonomia no modelo de software livre.

Ao possuir o código-fonte daquilo que utiliza, o Estado adquire também maior independência diante dos fornecedores. Novos desenvolvimentos e a inclusão de novas funcionalidades no software podem ser realizadas sem incompatibilidades, além de permitir que sempre se possa escolher a melhor empresa desenvolvedora para fazer tais alterações, sem estar aprisionado ao primeiro desenvolvedor.

No modelo proprietário, o Estado nunca é dono do que pagou. O dono sempre será a empresa que detém o código-fonte e a titulariedade do licenciamento proprietário. Trata-se de um modelo ruim e caro para o setor público. Visando confundir para continuar sua exploração econômica, o monopólio de software proprietário quer confundir os gestores públicos ao afirmar que no modelo proprietário está se pagando pelo suporte. Este argumento é equivocado, pois do contrário os Ministérios não teriam que contratar as empresas de informática para dar suporte as soluções proprietárias que implantou. Não haveria necessidade de contratos gigantescos com empresas tercerizadas que ultrapassam hoje o faturamento do Serpro.

Utilizando o modelo de software livre, por exemplo o Estado poderia desenvolver um único GED (sistema de Gestão Eletrônica de Documentos) para todos os seus Ministérios ao invés de desperdiçar mais de R$ 1,5 milhão em cada licença de propriedade para cada uma de suas unidades. Além de assegurar a interoperabilidade e compatibilidade para que tudo se comunique com tudo, as melhorias indispensáveis a cada período poderiam ser realizadas com um custo bem menor, pois inexiste aprisionamentos, opacidade de códigos e descontinuidades, o que permite escolher sempre o melhor e o mais barato desenvolvimento.

No modelo de desenvolvimento e uso de software livre, as soluções podem ter seu código-fonte publicado e devolvido à sociedade. Ao abrir os códigos daquilo que usa o Estado permite que seja criada uma rede de colaboradores para a melhoria e amnutenção dos programas. O modelo do software livre incentiva a colaboração, reduz custos e assegura que os recursos do Estado sejam direcionados para a criação constante de novas soluções e não para remunerar licenças de propriedade.

Walter Bender, diretor do MIT Media Lab ( Laboratório de Mídia do Instituto de Tecnologia de Massachusets) e David Cavallo, também pesquisador do Media Lab, ao responder uma consulta feita pelo ITI sobre o uso de software livre nos programas do governo brasileiro concluíram: "Existe um grande potencial de aprendizagem no uso do software livre que não existe no software proprietário. Se o código fonte é proprietário, é oculto da população em geral. Este fato tira desta população uma grande oportunidade de aprendizado . Quando o código fonte é aberto e existe uma comunidade que aceita contribuições de melhorias ao ambiente ou de novos aplicativos, então tudo isto também é aberto ao mundo, ou, pelo menos, ao mundo com acesso. Não apenas o código fonte serve como exemplo de idéias e implementações de programação, mas a comunidade de desenvolvimento serve como uma comunidade de prática social com o acesso de todos. Isto representa uma base global gratuita de suporte e educação."

BIBLIOGRAFIA

BENKLER, Yochai. (2002) Coase's penguin, or Linux and the nature of the firm. Disponível: http://www.yale.edu/yalelj/112/BenklerWEB.pdf. Acesso em 18 jan 2005.

GUROVITZ, Helio. Linux: o fenômeno do software livre. São Paulo: Editora Abril, 2002. (Coleção Para Saber Mais - Super Interessante)

HEXSEL, Roberto. (2002) Software Livre. Curitiba: Departamento de Informática da Universidade Federal do Paraná. http://www.softwarelivre.gov.br. Acesso em novembro 2003.

O'SULLIVAN, Maureen. (2001) The Linux operating system: a socio-legal study. A thesis submitted in fulfilment of the requirements for the degree of LLM by Research. University of Warwick, School of Law, September 2001.

RAYMOND, Eric S. (2001) The cathedral and the bazaar: musings on Linux and Open Source by an accidental revolutionary. Revisited Edition. Sebastopol, CA: O'Reilly & Associates, Inc.

REZENDE, Pedro Antonio Dourado de. (2001) Sapos piramidais nas guerras virtuais. Episódio I: paradoxos da propriedade intelectual e da segurança computacional. Palestra proferida no III Seminário de Segurança na Informática. Instituto Tecnológico da Aeronáutica. São José dos Campos - SP, 25/10/2001.
Disponível no site: http://www.cic.unb.br/docentes/pedro/trabs/ssi2001.htm. Acesso em 10 dez 2004.

SILVEIRA, Sérgio Amadeu. A mobilização colaborativa e a teoria da propriedade do bem intangível. Tese de doutorado, defendida em outubro de 2005, na USP. Versão sem revisão disponível no site .

_______________________ (2005) Corsários digitais, Estado e monopólio de algoritmos. In: Propriedade Intelectual: estudos em homenagem a Professora Maristela Basso. Organização Patrícia Luciane de Carvalho. Curitiba: Juruá.

______________________ (2004) Software livre: a luta pela liberdade do conhecimento. São Paulo: Editora Perseu Abramo. (Coleção Brasil Urgente)

SIMON, Imre. (2000) A propriedade intelectual na era da Internet. Disponível: http://www.ime.usp.br/~is/papir/direitos/index.html. Acesso em 10 dez 2004.

SOFTEX. (2005) O impacto do software livre e de código aberto na indústria de software do Brasil. Campinas: Softex.

STIGLITZ, J.; FURMAN, J. (2002) US vs Microsoft, declaration of Joseph E. Stiglitz and Jason Furman as part of the Tunney Act Proceeding. Commissioned by the Computer & Communications Industry Association, January 28, 2002.
http://www.sbgo.com/Papers/tunney_jesjf.pdf. Acesso em 10 dez. 2004.

TAURION, Cezar. (2004) Software livre: potencialidades e modelos de negócios. Rio de Janeiro: Brasport.

Sunday, August 06, 2006

Inauguração do Telecentro Casa Brasil em Guarulhos







Estas são algumas fotos da inauguração do telecentro Água e Vida, em Gaurulhos, cidade da Grande São Paulo, sábado, dia 05/08/2006, pela manhã. Estive lá a convite do Jesulino, coordenador da Casa Brasil no Estado de São Paulo. Fui com o meu amigo Javier Bustamante, professor da Universidade Complutense de Madri, Espanha, e com a Mayumi, mestranda da USP. Lá encontramos o Edgard Picino, coordenador geral desses telecentros, realizados pela Petrobrás em parceria com a RITS e o ITI. Um dos momentos mais emocionantes do evento foi o dos depoimentos de pessoas mais velhas que aprenderam informática com software livre. Uma delas, uma senhora, disse que em sua casa seus filhos usavam software proprietário, mas ela achava os softwares do telecentro bem melhor. Esses depoimentos desmontam as mentiras espalhadas pelo monopólio de software proprietário e deixam claro que quem aprende informática com software livre torna-se mais capacitado e ganha mais autonomia.

Minha foto em Cuba



Estive em Cuba em 2004. Fiquei impressionado com a Ilha. Duas coisas me chamaram muita atenção: a pobreza do país (devido ao bloqueio norte-americano) e a dignidade feliz do seu povo.

Friday, August 04, 2006

Redes virais: conexão sem infra-estrutura de telecom

Trata-se de um novo conceito de construção de uma rede de comunicação sem infra-estrutura de comunicações. Essa rede vai usar cada computador nela conectado como hospedeiro e reprodutor do fluxo de comunicação. Sergio Amadeu da Silveira / 14 de abril de 2006
(publicado originalmente na Revista A Rede, edição n° 13 de abril de 2006).


A palavra vírus provoca imagens ou idéias de contaminação, multiplicação reprodução rápida e fulminante. Para a biologia, um vírus é um microorganismo que se multiplica usando a célula do seu hospedeiro. Na computação, o vírus é um programa malicioso que vem dentro de outro programa, que faz cópias de si mesmo e tenta se espalhar pelos demais computadores. No cenário dos negócios, o marketing viral é a propaganda boca a boca.

No mundo das redes, é cada vez mais forte a idéia da comunicação viral. Mas o que vem a ser uma rede viral? Trata-se de um novo conceito de construção de uma rede de comunicação sem uma infra-estrutura de comunicações. Uma rede que utilize cada computador nela conectado como hospedeiro e reprodutor do fluxo de comunicação. É uma revolução dentro da revolução informacional. É a rede caminhando no sentido da mais completa descentralização, não somente de sua parte lógica, mas também de seus elementos físicos.

A internet representou uma profunda mudança no paradigma das comunicações. Ela é logicamente descentralizada; ao contrário da TV, não depende de um centro emissor. Mas utiliza a infra-estrutura da telefonia para existir e trocar seus pacotes de dados, para conectar os computadores. Imagine, então, usar determinadas ondas de rádio para conectar diretamente um computador com outro. Pense em tirar os fios da internet e criar uma conexão de todos com todos, via wireless (sem fio, em inglês). Calma aí, vamos explicar melhor.

Comunicação viral é o conceito de um sistema de comunicação livre de infra-estrutura, em que os usuários fazem sua própria infra-estrutura. Essa forma de comunicação pode ter o mesmo nível de impacto que a internet teve sobre a comunicação conectada por redes de fios e fibras ópticas. A comunicação se dará como no caso da disseminação de um vírus. Tal como o vírus se prolifera contaminado a célula vizinha, a comunicação viral terá como o agente de propagação os computadores mais próximos. A máquina de seu vizinho servirá para fazer sua mensagem ser transmitida ao vizinho de seu vizinho e assim por diante até chegar ao destino.


Eu sou uma antena

Primeira implicação de um sistema viral é que ficamos livres da infra-estrutura de telefonia (a chamada de última milha) para conectar nossos computadores, palms e notebooks. Segunda, é que a rede viral está mais aberta às inovações, é mais flexível, exatamente por não estar baseada em nenhum sistema central. A terceira implicação está no fato de colocar a inteligência em cada nó da conexão, e não mais em um servidor instalado em um provedor. Ufa!

Criar redes descentralizadas, que não dependam de um ponto central, com a capacidade de se autoconfigurar de acordo com o número de máquinas nela penduradas, exigirá novos algoritmos que assegurem a continuidade do fluxo de informações, se um dos nós cair, ou seja, se desconectar. O algoritmo (conjunto de instruções embutidas em cada placa de comunicação da rede viral) deverá ser capaz de redirecionar a corrente de dados para outros nós. Se a máquina de seu vizinho à direita deu pau, a transmissão continuará através da máquina do vizinho da frente ou à esquerda. Como isso é possível?

Os equipamentos, computadores ou laptops conectados na rede passam a funcionar como aparelhos de retransmissão de informações; passam a trabalhar como pequenas antenas retransmissoras. Isso mesmo, retransmissoras de sinais. Com uma pequena placa inserida em cada computador, ele é transformado em uma pequena estação que roteia o fluxo de dados que estará passando por ele. Ou seja, além do computador receber e enviar dados conforme a vontade de quem o opera, ele também passará a garantir que os computadores vizinhos possam se comunicar utilizando-o como ponte de comunicação.

Agora pense em uma cidade com milhares de computadores. Quanto mais computadores e laptops existirem, menor será a distância entre eles e melhor será a comunicação. Sem fios ou cabos, os dados serão transmitidos por ondas captadas por cada computador, agora transformados em pequenas estações roteadoras de telecomunicações. Hoje, quanto mais pessoas usam uma linha ADSL, menor a velocidade de transmissão dos pacotes de dados. Existe uma redução da velocidade à medida que mais pessoas forem se conectandona rede. Cada novo computador conectado congestiona a rede tradicional.


Quanto mais, melhor.

Ocorrerá exatamente o contrário no caso da arquitetura das redes virais ou ad hoc (feitas com essa finalidade). Quanto mais máquinas funcionando em uma área, mais caminhos para as informações se propagarem, evitarem congestionamentos e chegarem mais rapidamente ao seu destino. A rede viral é uma rede solidária que fica melhor, quando mais máquinas compartilham sua conectividade.

Um dos principais pensadores da comunicação viral é Andrew Lippman, pesquisador e professor do MIT (Instituto de Tecnologia de Massachusetts). Um dos grandes entusiastas o laptop de US$ 100. Milhões de crianças com laptops contendo placa apropriada para comunicação viral vão representar uma enorme massa de computadores-retransmissores necessários a viabilizar, em todas as cidades, a comunicação viral. Sem gastar um centavo de conta telefônica.

A rede viral tem uma topologia mesh. Em redes de comunicação, o termo topologia indica a descrição do arranjo da rede, o desenho como seus nós estão conectados. Quando todos os nós possuem linhas de conexão com um nó central, chamados essa topologia de estrela. Quando os nós se conectam entre si, temos uma topologia mesh. A rede mesh também pode ser feita com a colocação de centenas de antenas com capacidade de conectar entre 30 a 60 computadores cada. Mas também pode ser uma rede ad hoc, ou seja, permite a conexão entre os equipamentos sem fio, sem a necessidade de ponto de acesso.

O futuro da comunicação viral, completamente descentralizada e de baixo custo, coloca instigantes possibilidades para a educação, para a diversidade cultural e para o comércio. Certamente, reordenará a telefonia, pois a voz sobre IP poderá usar a rede mesh para se consolidar, bem como a TV sobre IP poderá viabilizar inúmeros canais de programação e maior diversidade cultural. Outros desafios surgirão, mas a comunicação viral democratiza intensamente a comunicação mediada por computador, desde que as pessoas tenham acesso a um computador. A luta pela inclusão digital é uma corrida contra o tempo, para impedir que nossa sociedade e nossas comunidades fiquem fora da sociedade do conhecimento. Temos pressa.


http://web.media.mit.edu/~lip/ - Página de Andrew Lippman, com informações valiosas e esclarecedoras sobre a comunicação viral. Mas em inglês.