Monday, August 28, 2006
3 festival de software livre da Bahia
Estive lá e apresentei a palestra REDES VIRAIS, OPEN SPECTRUM E O FUTURO DA COLABORAÇÃO. Era sábado às 17 horas. Depois, Rafael Evangelista veio à Mesa e começamos um debate com o pessoal que estava na sala Castro Alves assistindo a exposição. Muitos assuntos importantes foram discutidos, mas gostaria de ressaltar um deles. Vários dos presentes alertaram para o perigo das tecnologias DRM. Além da violação da privacidade foi apontado a tentativa da indústria de software proprietaŕio bloquear o crescimento do software livre. Como? Simples, quem não utilizar um sistema operacional que aceita as regras do DRM deixará de conseguir ouvir e ver uma série de músicas e vídeos. Segundo um dos membros da delegação de software livre de MG, uma cantora brasileira famosa (não vou escrever seu nome em protesto!) já lançou seu último CD que só pode ser ouvido em aparelhos que tenham DRM. Assim, quem tem Linux não poderá ouvir suas músicas no computador. Acho necessário denunciarmos e esclarecermos as pessoas sobre os abusos aos direitos históricos que o DRM está querendo impor.
Sunday, August 13, 2006
SCIENCE OF WEB
No Carderno Mais, do domingo, dia 13 de agosto, foi publicada a matéria "Tecnociência Pura: Tim Berners- Lee e colegas querem criar ciência da web, que abarcaria diversas disciplinas", escrita pela jornalista Mariana Tamari. A idéia de Berners-Lee e outros cientistas é criar um novo campo científico com o foco na web.
Abaixo coloco as respostas que dei à Mariana. Elas são úteis para entender melhor minha posição sobre a nova ciência.
Queria saber o que você acha dessa iniciativa. Ela tem alguma relevância para os estudos que relacionam a web com a sociedade, que pesquisadores como você já vêm desenvolvendo?
Primeiro é preciso constatar que a web é uma realidade em expansão. O hipetexto agora agrega sons e imagens em movimento. Tim Berners-Lee foi o seu principal criador quando estava no CERN, em Genebra. A web, entendida como modo gráfico da Internet, é apenas uma parte da rede, sem dúvida a mais evidente e que assegurou o seu sucesso imediato. Quando Berners-Lee e outros propõem criar a "ciência da web", eles estão produzindo um foco de atenção e de análise para o estudo das redes. Certamente estão propondo o estudo do fenômeno a partir da complexidade de sua interface. Podemos notar isso quando Berners-Lee e outros escrevem que a "Web science is about more than modeling the current Web. It is about engineering new infrastructure protocols and understanding the society that uses them, and it is about thecreation of beneficial new systems." Os softwares interpretem o protocolo http e permitem o modo gráfico da Internet fazem parte de uma das camadas de comunicação de dados, a chamada camada de aplicação. Existe, por exemplo, a camada de transporte (TCP, UDP, etc), a camada de rede (IP, ICMP, IPsec, etc), a camada de ligação de dados ( Ethernet, Token Ring, PPP, etc), a camada física (ISDN, DSL, etc). A web existe sobre uma série de outras invenções que viabilizam a comunicação em rede. É claro que é possível estudar as redes a partir de sua aplicação mais aparente e que gera necessidades nas demais camadas e, por sua vez, cria necessidades de alteração nos demais mecanismos que compõem a rede. Por outro lado, é inegável o impacto das redes informacionais na sociedade e por isso, a sociologia, a antropologia, a ciência política, a comunicação, e outras ciências, continuarão avançando seus estudos sobre esses fenômenos a partir de seus instrumentos teóricos. Por exemplo, o sociólogo Manuel Castells formulou a noção de sociedade em rede, isto abriu várias linhas de pesquisa e gerou inúmeros trabalhos consistentes nas ciências humanas.
Segundo, concordo com Bruno Latour (autor de Ciência em Ação) de que o cientista é um ator social que utiliza estratégias persuasivas para conquistar aceitação de seus enunciados. De certo modo, Latour caminha na mesma linha de Thomas Kuhn, defensor de que a base da ciência está na comunidade científica e nos seus paradigmas dominantes. O conhecimento científico está vinculado a convenções socialmente estabelecidas e reproduzidas. O conhecimento científico e a criação de um novo campo desse conhecimento depende do consenso paradigmático entre os membros da comunidade científica. Se físicos, engenheiros, sociólogos e juristas concordarem e aderirem o campo multidisciplinar chamado ciência da web ganhará força.
Em que, especificamente, a criação desse novo ramos da ciência ajudaria na evolução dos estudos da web e do seu crescimento?
Considero que a proposta de Tim Berners-Lee e outros pode acabar seguindo a trajetória da Ecologia. Ernest Haeckel propôs um novo campo de estudo das relações entre os seres vivos e o seu ambiente orgânico e inorgânico em 1870, a Ecologia. A Biologia, a geografia, a física, a química e a própria antropologia são ciências necessárias para compor o terreno da Ecologia. O seu surgimento e evolução foi tornando-se fundamental quanto mais a humanidade descobria que sua ação industrial e exploratória desmedida criava impactos em cada microcomponente do planeta, inclusive nele, o homem. A ecologia se firmou como campo científico. Acredito que o estudo focalizado no fenômeno das redes, a partir da web, pode ser útil quanto mais a sociedade incorpore a comunicação mediada por computador em seu cotidiano. Assim como, a Ecologia nasceu da Biologia e depois tornou-se mais abrangente que ela, ou seja, acho possível uma ciência da web, que partindo das ciências da computação avance para incorporar outras formas de olhar e analisar mais amplas e advindas de outros campos do conhecimento. Acho que se trata de um esforço multidisciplinar que só tem sentido ser proposto devido ao gigantesco impacto da web, como maior expressão da comunicação em rede, já surgida na humanidade.
Já não existem universidades e departamentos específicos que tratam desse tema?
Steven Johnson no livro "Emergência: a dinâmica de rede em formigas, cérebros, cidades e softwares" tratou de popularizar a teoria sobre comportamentos complexos e sofisticados que nascem de agentes simples. Por exemplo, as propriedades do cérebro não podem ser extraídas de nenhum neurônio particular, dito de outro modo, o neurônio é extremamente simples e nada inteligente, já o cérebro é altamente sofisticado e uma verdadeira máquina biológica de processamento, controle e transmissão de informações. E a web? É um enorme cérebro, um grande repositório do conhecimento? Será possível entendê-la somente observando os seus componentes? A Internet e a web vêm sendo estudadas por vários departamentos e ciências. Por exemplo, a pós-graduação da Cásper Líbero tem uma matéria que eu ministro sobre a Internet, voltada a análise das redes do ponto de vista comunicacional. A PUC tem pesquisadores que analisaram a Internet do ponto de vista semiótico. A USP tem mestrandos estudando a teoria matemática da comunicação para viabilizar redes virais ou redes mesh. Enfim, existe um objeto de estudo forte e identificável ( a web) que cada campo do conhecimento somente pode apreendê-lo parcialmente. Isto justificaria uma ciência da web que eu prefiriria chamar de ciência da rede. Mas as redes são formações muito antigas utilizadas há milhares de anos pela humanidade. Foi necessário o surgimento da Internet e da web para que a proposição de um campo científico voltado a seu estudo possa ser discutido e encarado seriamente. A ciência, ou seja, toda a ciência é historicamente determinada.
Abaixo coloco as respostas que dei à Mariana. Elas são úteis para entender melhor minha posição sobre a nova ciência.
Queria saber o que você acha dessa iniciativa. Ela tem alguma relevância para os estudos que relacionam a web com a sociedade, que pesquisadores como você já vêm desenvolvendo?
Primeiro é preciso constatar que a web é uma realidade em expansão. O hipetexto agora agrega sons e imagens em movimento. Tim Berners-Lee foi o seu principal criador quando estava no CERN, em Genebra. A web, entendida como modo gráfico da Internet, é apenas uma parte da rede, sem dúvida a mais evidente e que assegurou o seu sucesso imediato. Quando Berners-Lee e outros propõem criar a "ciência da web", eles estão produzindo um foco de atenção e de análise para o estudo das redes. Certamente estão propondo o estudo do fenômeno a partir da complexidade de sua interface. Podemos notar isso quando Berners-Lee e outros escrevem que a "Web science is about more than modeling the current Web. It is about engineering new infrastructure protocols and understanding the society that uses them, and it is about thecreation of beneficial new systems." Os softwares interpretem o protocolo http e permitem o modo gráfico da Internet fazem parte de uma das camadas de comunicação de dados, a chamada camada de aplicação. Existe, por exemplo, a camada de transporte (TCP, UDP, etc), a camada de rede (IP, ICMP, IPsec, etc), a camada de ligação de dados ( Ethernet, Token Ring, PPP, etc), a camada física (ISDN, DSL, etc). A web existe sobre uma série de outras invenções que viabilizam a comunicação em rede. É claro que é possível estudar as redes a partir de sua aplicação mais aparente e que gera necessidades nas demais camadas e, por sua vez, cria necessidades de alteração nos demais mecanismos que compõem a rede. Por outro lado, é inegável o impacto das redes informacionais na sociedade e por isso, a sociologia, a antropologia, a ciência política, a comunicação, e outras ciências, continuarão avançando seus estudos sobre esses fenômenos a partir de seus instrumentos teóricos. Por exemplo, o sociólogo Manuel Castells formulou a noção de sociedade em rede, isto abriu várias linhas de pesquisa e gerou inúmeros trabalhos consistentes nas ciências humanas.
Segundo, concordo com Bruno Latour (autor de Ciência em Ação) de que o cientista é um ator social que utiliza estratégias persuasivas para conquistar aceitação de seus enunciados. De certo modo, Latour caminha na mesma linha de Thomas Kuhn, defensor de que a base da ciência está na comunidade científica e nos seus paradigmas dominantes. O conhecimento científico está vinculado a convenções socialmente estabelecidas e reproduzidas. O conhecimento científico e a criação de um novo campo desse conhecimento depende do consenso paradigmático entre os membros da comunidade científica. Se físicos, engenheiros, sociólogos e juristas concordarem e aderirem o campo multidisciplinar chamado ciência da web ganhará força.
Em que, especificamente, a criação desse novo ramos da ciência ajudaria na evolução dos estudos da web e do seu crescimento?
Considero que a proposta de Tim Berners-Lee e outros pode acabar seguindo a trajetória da Ecologia. Ernest Haeckel propôs um novo campo de estudo das relações entre os seres vivos e o seu ambiente orgânico e inorgânico em 1870, a Ecologia. A Biologia, a geografia, a física, a química e a própria antropologia são ciências necessárias para compor o terreno da Ecologia. O seu surgimento e evolução foi tornando-se fundamental quanto mais a humanidade descobria que sua ação industrial e exploratória desmedida criava impactos em cada microcomponente do planeta, inclusive nele, o homem. A ecologia se firmou como campo científico. Acredito que o estudo focalizado no fenômeno das redes, a partir da web, pode ser útil quanto mais a sociedade incorpore a comunicação mediada por computador em seu cotidiano. Assim como, a Ecologia nasceu da Biologia e depois tornou-se mais abrangente que ela, ou seja, acho possível uma ciência da web, que partindo das ciências da computação avance para incorporar outras formas de olhar e analisar mais amplas e advindas de outros campos do conhecimento. Acho que se trata de um esforço multidisciplinar que só tem sentido ser proposto devido ao gigantesco impacto da web, como maior expressão da comunicação em rede, já surgida na humanidade.
Já não existem universidades e departamentos específicos que tratam desse tema?
Steven Johnson no livro "Emergência: a dinâmica de rede em formigas, cérebros, cidades e softwares" tratou de popularizar a teoria sobre comportamentos complexos e sofisticados que nascem de agentes simples. Por exemplo, as propriedades do cérebro não podem ser extraídas de nenhum neurônio particular, dito de outro modo, o neurônio é extremamente simples e nada inteligente, já o cérebro é altamente sofisticado e uma verdadeira máquina biológica de processamento, controle e transmissão de informações. E a web? É um enorme cérebro, um grande repositório do conhecimento? Será possível entendê-la somente observando os seus componentes? A Internet e a web vêm sendo estudadas por vários departamentos e ciências. Por exemplo, a pós-graduação da Cásper Líbero tem uma matéria que eu ministro sobre a Internet, voltada a análise das redes do ponto de vista comunicacional. A PUC tem pesquisadores que analisaram a Internet do ponto de vista semiótico. A USP tem mestrandos estudando a teoria matemática da comunicação para viabilizar redes virais ou redes mesh. Enfim, existe um objeto de estudo forte e identificável ( a web) que cada campo do conhecimento somente pode apreendê-lo parcialmente. Isto justificaria uma ciência da web que eu prefiriria chamar de ciência da rede. Mas as redes são formações muito antigas utilizadas há milhares de anos pela humanidade. Foi necessário o surgimento da Internet e da web para que a proposição de um campo científico voltado a seu estudo possa ser discutido e encarado seriamente. A ciência, ou seja, toda a ciência é historicamente determinada.
Friday, August 11, 2006
PROPRIEDADE INTELECTUAL, MONOPÓLIOS DO CONHECIMENTO E SOFTWARE LIVRE
by Sérgio Amadeu da Silveira
Existem diversos modelos de desenvolvimento e uso de software, mas dois deles são claramente opostos em seus objetivos e métodos. O modelo proprietário tem como procedimento inerente negar o acesso ao conhecimento contido no software, por isso baseia-se no código-fonte fechado e no desenvolvimento não-compartilhado. Já o modelo de software livre busca transferir continuamente o conhecimento essencial presente no software. Para isso, é necessário a abertura do seu código-fonte, o que viabiliza o desenvolvimento colaborativo das soluções.
A visão sobre a criação e a difusão do conhecimento tecnológico é a questão central que diferencia os dois modelos. Os defensores do modelo proprietário pregam que a base da criatividade é a propriedade. Sem ela, não haveria incentivos suficientes para a contínua produção de novidades. A humanidade só teria interesse em criar se puder retirar das suas criações o máximo benefício econômico. Os defensores do software livre defendem que a liberdade e o compartilhamento do conhecimento é a base da criatividade. Observam a história da ciência e notam que seu gigantesco avanço foi resultado de uma série de fatores, mas certamente o acúmulo contínuo do conhecimento e troca livre de saberes foram elementos fundamentais que determinaram o ritmo da evolução científica.
O fato é que existe atualmente uma mobilização colaborativa planetária, ou seja, em praticamente todos os países existe a comunidade de software livre. Este movimento é crescente e capaz de realizações tecnológicas extremamente poderosas, tal como o software Apache que está sendo utilizado por aproximadamente 70% dos servidores de páginas web no mundo. Um dos principais sites que registram os projetos de software de código aberto e não-proprietário é o source forge. Um levantamento realizado nos primeiros dezenove dias de março de 2005 possibilitou constatar 99 mil e 107 projetos colaborativos, envolvendo 1.056.568 de desenvolvedores registrados. Em janeiro de 2004, o mesmo site registrava 75 mil projetos e um pouco mais de 780 mil pessoas envolvidas (TAURION, 2004: 77). O crescimento é contínuo e acelerado. Em abril de 2001 existia um pouco menos de 18 mil projetos e 145 mil programadores. Em outubro de 2002, passaram para 49 mil projetos e aproximadamente 500 mil programadores (GUROVITZ, 2002:19-20).
Nas principais áreas de fronteira tecnológica, ao contrário do que é divulgado pelos defensores do monopólio proprietário, a mobilização colaborativa é intensa. Existem atualmente somente no segmento de Clustering 378 projetos. Na área de desenvolvimento de computação distribuída existem 729 projetos (agosto de 2005). Com a inserção da indústria cinematográfica no mundo do código aberto, principalmente com o sucesso das produções da DreamWorks intensifica-se também os projetos de Games e entretenimento. Em agosto de 2005, podíamos contar no repositório do Source Forge 1075 projetos colaborativos de simuladores, 1893 projetos de jogos de estratégia em tempo real, 1009 projetos de MUD (Multi-User Dungeons), entre centenas de outros tipos de jogos.
Como defender que o navegador Mozila ou o Firefox desenvolvidos compartilhadamente não possuem qualidade? Que tipo de percepção enviesada é necessária para continuar afirmando que não podemos usar softwares livres por não serem sustentados por grandes empresas responsáveis pelos seus códigos? Como acreditar que somente o modelo de desenvolvimento proprietário é capaz de gerar inovações diante de tantas evidências observadas na prática tecnológica? Como é possível continuar afirmando que um software inseguro e instável que possui seu código-fonte fechado é melhor que um software aberto, estável e que pode ser completamente adequado as necessidades do mundo corporativo tal como o GNU/Linux?
Em geral, isto acontece por três fatores nada desprezíveis: o desconhecimento; as técnicas de aprisionamento do mundo proprietário e a estratégia de marketing dos monopólios de algoritmos. O primeiro fator é estritamente cultural e está sendo alterado gradativamente. O desconhecimento ocorre de vários modos. Existe a ignorância sobre a existência de um novo modelo. Muitas pessoas acreditavam que só era possível existir softwares proprietários, entre estes, alguns só conheciam produtos de uma única empresa. Outros não sabiam da existência de soluções livres e abertas para quase todas as áreas. Mas, certamente o desconhecimento mais difícil de lidar é daqueles que não querem conhecer, seja por desânimo ou por preconceito, em geral, ideológico. Alguns técnicos estão fora de sintonia com a chamada sociedade do conhecimento e acreditam não ser necessário aprender sempre. Esta postura baseada no desânimo militante é o principal aliado da manutenção do modelo proprietário.
As técnicas de aprisionamento também são essenciais para manter o modelo provisoriamente hegemônico de software. A indústria do software proprietário cria incompatilidades e artifícios exatemente para manter o seu cliente fidelizado ( na linguagem do marketing) ou aprisionado (na linguagem da Economia). Este modo de procededer é responsável por inúmeros gastos desnecessários de governos e empresas, mas ele é indispensável ao modelo proprietário. Se a interoperabilidade e a compatilidade fossem a regra, seria extremamente possível realizar migrações mais rápidas e menos complexas de um modelo para outro, de um conjunto de produtos para outro conjunto. O modelo proprietário é extremamente dispendioso e voltado mais para o benefício da empresa desenvolvedora do que para seus clientes-usuários. Esta é uma desvantagem que está cada vez mais sendo notada pelos usuários e já vem motivando a mudança para o modelo aberto.
Por que não ter o código-fonte dos sistemas e softwares que são utilizados por uma empresa ou órgão público? A quem beneficia o não-acesso a estes códigos? Qual a vantagem de não tê-los? Ao contrário, a posse dos fontes permite que novos desenvolvimentos sejam realizados com qualquer empresa e não somente com aquela que desenvolveu a primeira versão. O acesso ao código-fonte permite ao usuário a compatilidade dos novos sistemas com os anteriores e permite a redução de custos, além de maior segurança, uma vez que possui auditabilidade plena sobre o que está utilizando. Assim, para evitar as facilidades de escolha e de mudança aos usuários é que o modelo proprietário também nega acesso ao código-fonte. Um dos maiores fatores de aprisionamento dos usuários não-corporativos é a chamada “pirataria” que será tratada mais a frente.
A estratégia de marketing das mega-corporações de softwares e aplicativos básicos é outro elemento vital da redução do ritmo de implantação de software livre. Ela combina volumosas verbas publicitárias, doação de equipamentos e laboratórios para universidades carentes de recursos, contratos de exclusividade, pressão sobre empresas de hardware, FUD (Fear, Uncertainly and Doubt, ou seja, a técnica de espalhar o medo, a incerteza e a dúvida) e ação de lobbies, principalmente sobre o Estado. Entretanto, isto não consegue impedir o avanço do modelo colaborativo. Apenas, retarda a substituição do paradigma hegemônico de desenvolvimento e uso de software.
Uma comparação feita pela Revista Wired, em fevereiro de 2005, demonstra a existência de segmentos em que o desenvolvimento não-proprietário já é dominante. Os percentuais relacionam o produto à totalidade do mercado daquele segmento. Os primeiros produtos em cada segmento são propriedade da Microsoft, os segundos são os principais produtos não-proprietários: Browsers (IE 92%, Firefox 4%); Desktop (Windows 95%, Linux 3%); Application Servers (Windows 62%, Linux 19%); Databases (SQL Server 64%, MySQL 49%); Web servers (IIS 21%, Apache 68%); Mail Servers (Exchange 10%, Sendmail 41%); Email client (Outlook Express 19%, N/A); Web enciclopédias (Encarta Premium 68,000 entradas; Wikipedia 431,195 entradas).1
O movimento colaborativo está prestes a criar massa crítica junto aos usuários residenciais. Acontecendo isto, a tendência é sua velocidade de expansão acelerar. Em paralelo, o paradigma proprietário já emite sinais de saturação. Quando um paradigma técnico ou científico começa a esgotar-se ele tenta absorver elementos do paradigma concorrente para prolongar sua existência hegemônica. Isto não quer dizer que o modelo proprietário será extinto, isto significa que perderá força e será minoritário. Quando o monopólio de software proprietário passa a oferecer uma parte ou a totalidade do seu código-fonte para governos e grandes corporações, mesmo sem a possibilidade de compilação, mesmo com a exigência de um acordo de confidencialidade, isto é a maior demonstração de que o modelo de código fechado não pode ser considerado a priori seguro, como seus vendedores gostavam de falar. Abrir o código é elemento do novo paradigma, não do paradigma proprietário.
Para conter o crescente uso do software livre no segmento educacional e de inclusão digital, muito mais barato e estável, portanto, com custos de manutenção bem menores, o monopólio de software proprietário passa a entregar licenças gratuitas. Ora quem não cobra pela licença de uso do software é o modelo livre. Mas absorver elementos do novo paradigma é um dos sinais mais evidente de esgotamento do modelo de remuneração baseado no pagamento de licenças de propriedade. A maior empresa de software proprietário do mundo já diz trabalhar com o conceito de open source, hoje apenas para confundir, mas em breve por necessidade real.
A mobilização colaborativa em torno do código aberto cresce porque está de acordo com as possibilidades geradas por uma sociedade cada vez mais conectada e em rede. Esta percepção foi muito bem apontada pelo Professor Imre Simon: “A rede Internet está protagonizando um fenômeno novo, sem precedentes na história da nossa civilização, cujas consequências consideramos potencialmente imprevisíveis no momento. Estamos nos referindo à criação cooperativa de bens de informação por centenas, às vezes milhares de autores que se comunicam através da Internet. Mencionamos duas instâncias deste fenômeno, ambas quase inteiramente contida nos últimos dez anos: o advento do sistema operacional GNU/Linux e a construção do conteúdo coletivo da “world wide web”.
NEGAÇÃO DE ACESSO E MONOPÓLIO
A teoria econômica clássica aponta que os monopólios acabam reduzindo o ritmo das inovações, criando distorções de valor e ineficiências. Por isso, a concorrência é enaltecida. O mais interessante é constatar que apesar disso, a propriedade de idéias é baseada em monopólios temporários cedidos pelo Estado ao criador ou inventor. Quando surgiu a proteção legal à propriedade das idéias, esta visava o benefício social e a superação do segredo em relação a uma técnica. Por isso, em troca da socialização de um invento ou técnica, o Estado daria o direito de exploração exclusiva daquele invento ou técnica ao seu criador, por um determinado tempo. O objetivo era garantir o fluxo do conhecimento e não interrompê-lo. O objetivo era assegurar a incorporação das técnicas pela sociedade e não a constituição de uma economia de monopólios. O monopólio temporário de um invento era entendido como um mal necessário e um preço que se pagaria por sua socialização.
Isto não retira a constação da enorme existente na economia das idéias que tem sua remuneração alicerçada na garantia política, ou seja, estatal, da prática de monopólio. Em excesso, esta prática pode acabar perdendo suas qualidades e fazendo emergir suas distorções.
O software talvez seja o mais típico dos bens informacionais, a mais representativa criação da era da informação e um dos principais produtos da economia das idéias ou dos bens intangíveis. Exatamente por ser um bem imaterial, suas qualidades são completamente distintas dos bens materiais. A propriedade sobre uma idéia, uma informação, um algoritmo, um software, ou seja, sobre bens intangíveis é realizada pela negação do acesso. A propriedade de algo que não possui existência física é extremamente complexa.
Os bens intangíveis não possuem as duas características econômicas principais dos bens materiais: a escassez e o desgaste pelo uso. Um produto material para ser produzido em quantidade requer um conjunto de materiais que são finitos e, portanto, sofrem o fenômeno da escassez. Um software para ser reproduzido não exige nada além de uma mídia para a reprodução. Pode ser copiado em rede um vez ou um milhão de vezes. O número de cópias é irrelevante, exatamente por ser um bem imaterial inexiste escassez e desgaste em cada cópia. Além disso, o custo adicional de reprodução de uma cópia é igual a zero, ou é igual ao preço do suporte utilizado para a sua reprodução.
Richard Stallman, fundador do movimento pelo software livre, costuma afirmar que quando duas pessoas trocam maçãs, nada de especial acontece. Uma pessoa que dá sua maçã para a outra e recebe da outra uma maçã em troca, assim cada uma continua com uma única maçã. Isto não ocorre com bens imateriais. Caso duas pessoas troquem idéias, o fenômeno é completamente diferente. Se duas pessoas dão uma idéia, uma para a outra, elas ficam com duas idéias cada uma. Qual a diferença? Quando passo minha idéia ao outro não fico sem esta idéia, continuo com ela. Isto quer dizer que o bem imaterial pode ser clonado, copiado, reproduzido sem nenhuma perda ou desgaste do original.
Estas características é que tornam a propriedade sobre idéias, informações, bens informacionais em geral, completamente dependente da proteção política, ou seja, da lei e do aparato jurídico-repressivo do Estado. Por este motivo, existem somente algumas possibilidades de exercer propriedade sobre informações: a primeira é não as divulgando. A segunda é tentando realizar um controle de acesso. A terceira é pela ação do Estado que agiria contra aqueles que têm o acesso negado pelos criadores da informação. Nesse sentido, a principal forma de propriedade de bens informacionais e imaterias é exclusivamente política.
Apesar destas gigantescas qualidades dos bens informacionais, das idéias e do conhecimento (entendido como informações codificadas, organizadas e processadas), ou seja, não ser escassa, não se desgastar, não se perder quando copiada, em nossa história sócio-econômica isto passou a ser considerado o grande problema. Na verdade, é um grande problema para aplicar sobre estes bens imateriais o contrato de propriedade fundado no princípio das coisas escassaz, não-reprodutíveis a um custo igual a zero e com sua reprodução centrada na exigência de nova matéria-prima. Como resolver este problema? Com o monopólio da definição do acesso dado ao criador.
O problema é quando o monopólio que antes era temporário passa a ser centenário. As legislações estatais ao estenderem o direito de propriedade de um bem imaterial, uma idéia, um conjunto de algoritmos, por mais de 95 anos após a morte do criador estão invertendo a lógica inicial da proteção. Não é mais a sociedade que interessa. Não é mais a garantia do fluxo do conhecimento que importa, mas o que interessa é assegurar a lucratividade máxima para um agente econômico e negar o acesso ao bem protegido pelo maior tempo possível. O exagero passa a sobrepor o controle ao fluxo do conhecimento.
Para incentivar a inovação e a criação, os monopólios são péssimos. Com a expansão dos prazos de monopolização de conhecimento coloca-se em risco as possibilidades de criação e de compartilhamento dos inventos, das grandes sacadas, o que foi fundamental para o gigantesco progresso técnico-científico alcançado pela humanidade até meados do século XX.
No processo que o Departamento de Estado norte-americano moveu contra a Microsoft, os economistas Joseph Stiglitz e Jason Furman apresentaram uma declaração a partir de um estudo que lhes fora encomendado pela Computer & Communications Industry Association, no final de 2002. É importante notar que do ponto de vista da teoria econômica não existe consenso sobre os impactos do monopólio sobre a propriedade intelectual, como é possível notar na declaração a seguir:
"A indústria da tecnologia da informação é caracterizada pela rapidez das mudanças tecnológicas. Como a moderna teoria da competição e monopólios enfatiza, é importante focar não apenas aquilo que afeta o consumidor hoje, mas também como a mistura de monopólio, competição e regime de propriedade intelectual afeta o ritmo e a direção do processo de inovação.
Schumpeter acreditava que o receio de perda das rendas do monopólio levava os monopolistas a continuar inovando, usando os lucros para financiar as inovações. Entretanto, o ritmo com que as inovações são introduzidas poderia ser mais rápido se o poder dos monopólios fosse podado.
O monopólio diminui o passo das inovações de quatro maneiras.
Primeira, inovações precedentes são os principais insumos de inovações subseqüentes. O poder monopolista aumenta o custo de se buscar inovação. E quando se aumenta o custo de um insumo numa atividade, o nível desta atividade cai.
Segunda, com mais barreiras à entrada num negócio, a ameaça de competição schumpeteriana e, portanto, os incentivos para inovar diminuem. Num caso extremo, se um monopólio se assegurar de que não há ameaça de competição, ele não investirá em inovações.
Terceira, a própria inovação pode ser mal-direcionada afim de garantir o aumento tanto das barreiras de entrada quanto dos custos dos rivais. Em sistemas operacionais, o desenvolvimento de padrões proprietários alternativos e a construção de middleware não-interoperável são exemplos de inovações que podem potencialmente reforçar o poder monopolista.
Quarta, os incentivos de um monopólio para inovar são limitados. Como o monopolista produz menos que o socialmente ótimo, as economias com uma redução no custo de produção são menores do que num mercado competitivo. Também os incentivos para um monopolista patrocinar pesquisas não as levarão ao nível socialmente eficiente. Preferencialmente sua preocupação é inovar apenas no ritmo necessário para afastar a competição, um ritmo marcadamente menor que o socialmente ótimo.
Em resumo, monopolização não ameaça os consumidores apenas pelo aumento dos preços e pela redução da produção, mas também reduz a inovação no longo prazo." (STIGLITZ & JASON)
Todo o esforço teórico-doutrinário para defender o monopólio sobre a criação como fundamento do incentico à criação, além dos riscos apontados por Stiglitz e Jason, trata-se de uma argumentação econômica empiricamente fragilizada, pois desconsidera o que Prof. Yoshai Benkler denominou de "commons-based peer-production". Empiricamente constata-se a evolução constante da produção compartilhada de software e, agora com o movimento Creative Commons, também de músicas e outras criações culturais. Também é possível observar o modelo de desenvolvimento "bazar" (termo empregado por Eric Raymond para falar do desenvolvimento distribuído e anarquico do software aberto) que está sendo aplicado em inúmeros projetos internacionais de software, e atualmente envolve aproximadamente 150 mil programadores na construção e correção de cada nova versão do GNU/Linux. O que cada colaborador desta rede de desenvolvimento cede ao produto é bem menor do que o ganho que pode obter posteriormente com o uso deste programa colaborativo. Este processo também foi denominado de gift economy, ou economia da doação.
Benkler, no artigo Coase´s Penquin, or, Linux and The Nature of the Firm, publicado em 2002 no The Yale Law Journal, defendeu que a Internet está viabilizando a produção colaborativa entre pares (common-based peer-production), um conjunto de novas formas cooperativas de produção de informação, conhecimento e cultura em oposição aos mecanismos habituais de propriedade, hierarquia e mercados. Eles estariam baseados na troca e compartilhamento voluntário de trabalho:
“O papel das normas, o papel da tecnologia, e a interação entre voluntarismo e ganho econômico na formação da motivação e organização de uma produção colaborativa são também áreas de pesquisa importantes, particularmente o estudo de como as comunidades de colaboradores se aglutinam em torno de projetos. Estudos qualitativos e quantitativos da importância da produção colaborativa [peer production] na economia informacional geral, em particular na economia informacional baseada na Internet, forneceria uma melhor compreensão sobre quão periférico ou central é esse fenômeno. Para firmas, a emergência da produção colaborativa pode requerer um deslocamento mais agressivo, a partir de modelos negociais baseados em produtos informáticos, em direção a modelos negocias baseados em serviços.” (BENKLER, 2002: 77)
Projetos inovadores estão sendo realizados fora do modelo hegemônico de direitos de propriedade e têm gerado ganho economicamente distribuídos entre os desenvolvedores destes projetos que não se formaram a partir da exigência dos direitos exclusivos sobre a propriedade daquelas idéias. Esta constatação enfraquece profundamente o paradigma da exigência do monopólio econômico da exploração da obra ou invento como elemento essencial para a obtenção de ganho econômico e para incentivo à criatividade e à inovação.
PARA QUE NEGAR O ACESSO AO CÓDIGO-FONTE? PARA EVITAR A PIRATARIA?
Um dos principais argumentos utilizados para defender o modelo proprietário baseado no código-fonte fechado é que com a sua abertura os piratas roubariam os códigos. Trata-se de uma das miragens contemporâneas mais frequentes. Como toda miragem não resiste a realidade. O código-fonte fechado não tem como objetivo evitar a pirataria, mas impedir o livre fluxo do conhecimento com vistas a reduzir o ritmo da inovação que poderia ser feita sobre este código.
A pirataria de software é feita sobre o código executável e não sobre o código-fonte. Um dos softwares mais copiados ilegalmente é o Office. Seu código-fonte está fechado e nem por isso, a pirataria é barrada. O que se pretende com a opacidade dos fontes é evitar que outros possam desenvolver soluções melhores. Por isso, para retirar o máximo de proveito de uma determinada solução informacional é que se faz necessário o código fechado.
Aqui também é importante observar melhor o fenômeno da pirataria. Sem ela seria difícil estabalecer monopólios de algoritmos. O mecanismo é bem claro. O monopólio de software sabe que quanto mais usuários residenciais utilizarem seu software mais ele mantém uma massa crítica indispensável para a fidelização do mundo corporativo. Assim, o custo das licenças já prevê que o mercado pagante é o das empresas e instituições, públicas e privadas.
Nesse sentido, a pirataria é indispensável para a manutenção de uma grande massa crítica para o monopólio. O Estado é indispensável para obrigar o mundo corporativo a pagar pelas licenças de propriedade. Enquanto empresas pagam, o Estado faz vistas grossas para a pirataria residencial. Até por que se começasse a obter mandados judiciais para verificar os computadores residenciais, encontraria uma infinidade de softwares piratas. As pessoas teriam que ser punidas e isto fortaleceria o paradigma oposto, faria o movimento de software livre ganhar mais força.
O modelo de remuneração dos monopólios de software proprietário é insustentável e inviável para usuários residenciais. Basta comparar o preço das licenças de propriedade:2
LOJA KALUNGA
Corel draw 12 full portugues windows Corel CX 1 UN
Popular programa para desenhos vetoriais
R$1.499,00
Office 2003 standard cd port full 021-06316 Microsoft CX 1 UN
Popular suite de escritorios
R$1.499,00
LOJA BRASOFTWARE
Photoshop CS 8.0
Principal programa para tratamento de imagens
R$ 2.822,63
Adobe Illustrator CS
O software gráfico vetorial padrão do setor gráfico
R$ 2.407,13
After Effects 6.5 Standard
Ferramenta para animação gráfica e efeitos visuais
R$ 3.227,05
Adobe InDesign CS
Layout e design profissionais
R$ 3.974,95
Adobe Acrobat 6.0 Professional
Controle avançado de troca e impressão de documentos.
R$ 1.415,00
Flash MX 2004 Professional
Ferramenta de animação para web
R$ 2.127,82
Fireworks MX 2004
Cria, otimiza e integra gráficos para a web.
R$ 908,05
Dreamweaver MX 2004
Popular programa que cria sites e aplicativos de nível profissional para a web.
R$ 1.217,06
Algumas licenças de software bem populares tem o mesmo preço do computador. Um absurdo. É óbvio que a maioria das pessoas em suas casas não pagam por estas licenças, ao mesmo tempo, que esta prática é extremamente funcional a manutenção da hegemonia do paradigma proprietário. Por este motivo a pirataria de software não devia ser chamada de pirataria, mas de prática corsária. Corsários eran piratas a serviço de um poder. A pirataria beneficia os monopólios de software e algoritmo, portanto, na verdade os piratas são corsários digitais, pois servem a manutenção do poder monopolista. O movimento de software livre é alternativa efetiva a prática ilegal de uso não autorizado de licenças de propriedade.
O MODELO PROPRIETÁRIO É PREJUDICIAL AO ESTADO
Por que pagar dezenas vezes pelo mesmo trabalho? Por que não otimizar os gastos públicos? Por que não criar mais soluções novas do que pagar várias vezes pelas mesmas soluções já pagas? Um dos pincípios do Estado é o da economicidade. Por ele, o modelo de software livre seria adotado quase exclusivamente. As vantagens para o Estado com o uso do software livre são bem superiores as que podem ser obtidas com o modelo proprietário de aquisição.
Quando se adquire um software livre, o Estado tem o código-fonte desse software documentado e uma licença permissiva de uso, contendo 4 liberdades: a liberdade de usar o software para qualquer fim, de estudá-lo sem restrições, de alterá-lo e de redistribuir suas alterações. Com isto, ao invés de comprar inúmeras vezes licenças de propriedade, o Estado economiza e compra uma única vez o desenvolvimento do software. Por ser dono do que comprou e pagou, o Estado tem maior autonomia no modelo de software livre.
Ao possuir o código-fonte daquilo que utiliza, o Estado adquire também maior independência diante dos fornecedores. Novos desenvolvimentos e a inclusão de novas funcionalidades no software podem ser realizadas sem incompatibilidades, além de permitir que sempre se possa escolher a melhor empresa desenvolvedora para fazer tais alterações, sem estar aprisionado ao primeiro desenvolvedor.
No modelo proprietário, o Estado nunca é dono do que pagou. O dono sempre será a empresa que detém o código-fonte e a titulariedade do licenciamento proprietário. Trata-se de um modelo ruim e caro para o setor público. Visando confundir para continuar sua exploração econômica, o monopólio de software proprietário quer confundir os gestores públicos ao afirmar que no modelo proprietário está se pagando pelo suporte. Este argumento é equivocado, pois do contrário os Ministérios não teriam que contratar as empresas de informática para dar suporte as soluções proprietárias que implantou. Não haveria necessidade de contratos gigantescos com empresas tercerizadas que ultrapassam hoje o faturamento do Serpro.
Utilizando o modelo de software livre, por exemplo o Estado poderia desenvolver um único GED (sistema de Gestão Eletrônica de Documentos) para todos os seus Ministérios ao invés de desperdiçar mais de R$ 1,5 milhão em cada licença de propriedade para cada uma de suas unidades. Além de assegurar a interoperabilidade e compatibilidade para que tudo se comunique com tudo, as melhorias indispensáveis a cada período poderiam ser realizadas com um custo bem menor, pois inexiste aprisionamentos, opacidade de códigos e descontinuidades, o que permite escolher sempre o melhor e o mais barato desenvolvimento.
No modelo de desenvolvimento e uso de software livre, as soluções podem ter seu código-fonte publicado e devolvido à sociedade. Ao abrir os códigos daquilo que usa o Estado permite que seja criada uma rede de colaboradores para a melhoria e amnutenção dos programas. O modelo do software livre incentiva a colaboração, reduz custos e assegura que os recursos do Estado sejam direcionados para a criação constante de novas soluções e não para remunerar licenças de propriedade.
Walter Bender, diretor do MIT Media Lab ( Laboratório de Mídia do Instituto de Tecnologia de Massachusets) e David Cavallo, também pesquisador do Media Lab, ao responder uma consulta feita pelo ITI sobre o uso de software livre nos programas do governo brasileiro concluíram: "Existe um grande potencial de aprendizagem no uso do software livre que não existe no software proprietário. Se o código fonte é proprietário, é oculto da população em geral. Este fato tira desta população uma grande oportunidade de aprendizado . Quando o código fonte é aberto e existe uma comunidade que aceita contribuições de melhorias ao ambiente ou de novos aplicativos, então tudo isto também é aberto ao mundo, ou, pelo menos, ao mundo com acesso. Não apenas o código fonte serve como exemplo de idéias e implementações de programação, mas a comunidade de desenvolvimento serve como uma comunidade de prática social com o acesso de todos. Isto representa uma base global gratuita de suporte e educação."
BIBLIOGRAFIA
BENKLER, Yochai. (2002) Coase's penguin, or Linux and the nature of the firm. Disponível: http://www.yale.edu/yalelj/112/BenklerWEB.pdf. Acesso em 18 jan 2005.
GUROVITZ, Helio. Linux: o fenômeno do software livre. São Paulo: Editora Abril, 2002. (Coleção Para Saber Mais - Super Interessante)
HEXSEL, Roberto. (2002) Software Livre. Curitiba: Departamento de Informática da Universidade Federal do Paraná. http://www.softwarelivre.gov.br. Acesso em novembro 2003.
O'SULLIVAN, Maureen. (2001) The Linux operating system: a socio-legal study. A thesis submitted in fulfilment of the requirements for the degree of LLM by Research. University of Warwick, School of Law, September 2001.
RAYMOND, Eric S. (2001) The cathedral and the bazaar: musings on Linux and Open Source by an accidental revolutionary. Revisited Edition. Sebastopol, CA: O'Reilly & Associates, Inc.
REZENDE, Pedro Antonio Dourado de. (2001) Sapos piramidais nas guerras virtuais. Episódio I: paradoxos da propriedade intelectual e da segurança computacional. Palestra proferida no III Seminário de Segurança na Informática. Instituto Tecnológico da Aeronáutica. São José dos Campos - SP, 25/10/2001.
Disponível no site: http://www.cic.unb.br/docentes/pedro/trabs/ssi2001.htm. Acesso em 10 dez 2004.
SILVEIRA, Sérgio Amadeu. A mobilização colaborativa e a teoria da propriedade do bem intangível. Tese de doutorado, defendida em outubro de 2005, na USP. Versão sem revisão disponível no site.
_______________________ (2005) Corsários digitais, Estado e monopólio de algoritmos. In: Propriedade Intelectual: estudos em homenagem a Professora Maristela Basso. Organização Patrícia Luciane de Carvalho. Curitiba: Juruá.
______________________ (2004) Software livre: a luta pela liberdade do conhecimento. São Paulo: Editora Perseu Abramo. (Coleção Brasil Urgente)
SIMON, Imre. (2000) A propriedade intelectual na era da Internet. Disponível: http://www.ime.usp.br/~is/papir/direitos/index.html. Acesso em 10 dez 2004.
SOFTEX. (2005) O impacto do software livre e de código aberto na indústria de software do Brasil. Campinas: Softex.
STIGLITZ, J.; FURMAN, J. (2002) US vs Microsoft, declaration of Joseph E. Stiglitz and Jason Furman as part of the Tunney Act Proceeding. Commissioned by the Computer & Communications Industry Association, January 28, 2002.
http://www.sbgo.com/Papers/tunney_jesjf.pdf. Acesso em 10 dez. 2004.
TAURION, Cezar. (2004) Software livre: potencialidades e modelos de negócios. Rio de Janeiro: Brasport.
Existem diversos modelos de desenvolvimento e uso de software, mas dois deles são claramente opostos em seus objetivos e métodos. O modelo proprietário tem como procedimento inerente negar o acesso ao conhecimento contido no software, por isso baseia-se no código-fonte fechado e no desenvolvimento não-compartilhado. Já o modelo de software livre busca transferir continuamente o conhecimento essencial presente no software. Para isso, é necessário a abertura do seu código-fonte, o que viabiliza o desenvolvimento colaborativo das soluções.
A visão sobre a criação e a difusão do conhecimento tecnológico é a questão central que diferencia os dois modelos. Os defensores do modelo proprietário pregam que a base da criatividade é a propriedade. Sem ela, não haveria incentivos suficientes para a contínua produção de novidades. A humanidade só teria interesse em criar se puder retirar das suas criações o máximo benefício econômico. Os defensores do software livre defendem que a liberdade e o compartilhamento do conhecimento é a base da criatividade. Observam a história da ciência e notam que seu gigantesco avanço foi resultado de uma série de fatores, mas certamente o acúmulo contínuo do conhecimento e troca livre de saberes foram elementos fundamentais que determinaram o ritmo da evolução científica.
O fato é que existe atualmente uma mobilização colaborativa planetária, ou seja, em praticamente todos os países existe a comunidade de software livre. Este movimento é crescente e capaz de realizações tecnológicas extremamente poderosas, tal como o software Apache que está sendo utilizado por aproximadamente 70% dos servidores de páginas web no mundo. Um dos principais sites que registram os projetos de software de código aberto e não-proprietário é o source forge. Um levantamento realizado nos primeiros dezenove dias de março de 2005 possibilitou constatar 99 mil e 107 projetos colaborativos, envolvendo 1.056.568 de desenvolvedores registrados. Em janeiro de 2004, o mesmo site registrava 75 mil projetos e um pouco mais de 780 mil pessoas envolvidas (TAURION, 2004: 77). O crescimento é contínuo e acelerado. Em abril de 2001 existia um pouco menos de 18 mil projetos e 145 mil programadores. Em outubro de 2002, passaram para 49 mil projetos e aproximadamente 500 mil programadores (GUROVITZ, 2002:19-20).
Nas principais áreas de fronteira tecnológica, ao contrário do que é divulgado pelos defensores do monopólio proprietário, a mobilização colaborativa é intensa. Existem atualmente somente no segmento de Clustering 378 projetos. Na área de desenvolvimento de computação distribuída existem 729 projetos (agosto de 2005). Com a inserção da indústria cinematográfica no mundo do código aberto, principalmente com o sucesso das produções da DreamWorks intensifica-se também os projetos de Games e entretenimento. Em agosto de 2005, podíamos contar no repositório do Source Forge 1075 projetos colaborativos de simuladores, 1893 projetos de jogos de estratégia em tempo real, 1009 projetos de MUD (Multi-User Dungeons), entre centenas de outros tipos de jogos.
Como defender que o navegador Mozila ou o Firefox desenvolvidos compartilhadamente não possuem qualidade? Que tipo de percepção enviesada é necessária para continuar afirmando que não podemos usar softwares livres por não serem sustentados por grandes empresas responsáveis pelos seus códigos? Como acreditar que somente o modelo de desenvolvimento proprietário é capaz de gerar inovações diante de tantas evidências observadas na prática tecnológica? Como é possível continuar afirmando que um software inseguro e instável que possui seu código-fonte fechado é melhor que um software aberto, estável e que pode ser completamente adequado as necessidades do mundo corporativo tal como o GNU/Linux?
Em geral, isto acontece por três fatores nada desprezíveis: o desconhecimento; as técnicas de aprisionamento do mundo proprietário e a estratégia de marketing dos monopólios de algoritmos. O primeiro fator é estritamente cultural e está sendo alterado gradativamente. O desconhecimento ocorre de vários modos. Existe a ignorância sobre a existência de um novo modelo. Muitas pessoas acreditavam que só era possível existir softwares proprietários, entre estes, alguns só conheciam produtos de uma única empresa. Outros não sabiam da existência de soluções livres e abertas para quase todas as áreas. Mas, certamente o desconhecimento mais difícil de lidar é daqueles que não querem conhecer, seja por desânimo ou por preconceito, em geral, ideológico. Alguns técnicos estão fora de sintonia com a chamada sociedade do conhecimento e acreditam não ser necessário aprender sempre. Esta postura baseada no desânimo militante é o principal aliado da manutenção do modelo proprietário.
As técnicas de aprisionamento também são essenciais para manter o modelo provisoriamente hegemônico de software. A indústria do software proprietário cria incompatilidades e artifícios exatemente para manter o seu cliente fidelizado ( na linguagem do marketing) ou aprisionado (na linguagem da Economia). Este modo de procededer é responsável por inúmeros gastos desnecessários de governos e empresas, mas ele é indispensável ao modelo proprietário. Se a interoperabilidade e a compatilidade fossem a regra, seria extremamente possível realizar migrações mais rápidas e menos complexas de um modelo para outro, de um conjunto de produtos para outro conjunto. O modelo proprietário é extremamente dispendioso e voltado mais para o benefício da empresa desenvolvedora do que para seus clientes-usuários. Esta é uma desvantagem que está cada vez mais sendo notada pelos usuários e já vem motivando a mudança para o modelo aberto.
Por que não ter o código-fonte dos sistemas e softwares que são utilizados por uma empresa ou órgão público? A quem beneficia o não-acesso a estes códigos? Qual a vantagem de não tê-los? Ao contrário, a posse dos fontes permite que novos desenvolvimentos sejam realizados com qualquer empresa e não somente com aquela que desenvolveu a primeira versão. O acesso ao código-fonte permite ao usuário a compatilidade dos novos sistemas com os anteriores e permite a redução de custos, além de maior segurança, uma vez que possui auditabilidade plena sobre o que está utilizando. Assim, para evitar as facilidades de escolha e de mudança aos usuários é que o modelo proprietário também nega acesso ao código-fonte. Um dos maiores fatores de aprisionamento dos usuários não-corporativos é a chamada “pirataria” que será tratada mais a frente.
A estratégia de marketing das mega-corporações de softwares e aplicativos básicos é outro elemento vital da redução do ritmo de implantação de software livre. Ela combina volumosas verbas publicitárias, doação de equipamentos e laboratórios para universidades carentes de recursos, contratos de exclusividade, pressão sobre empresas de hardware, FUD (Fear, Uncertainly and Doubt, ou seja, a técnica de espalhar o medo, a incerteza e a dúvida) e ação de lobbies, principalmente sobre o Estado. Entretanto, isto não consegue impedir o avanço do modelo colaborativo. Apenas, retarda a substituição do paradigma hegemônico de desenvolvimento e uso de software.
Uma comparação feita pela Revista Wired, em fevereiro de 2005, demonstra a existência de segmentos em que o desenvolvimento não-proprietário já é dominante. Os percentuais relacionam o produto à totalidade do mercado daquele segmento. Os primeiros produtos em cada segmento são propriedade da Microsoft, os segundos são os principais produtos não-proprietários: Browsers (IE 92%, Firefox 4%); Desktop (Windows 95%, Linux 3%); Application Servers (Windows 62%, Linux 19%); Databases (SQL Server 64%, MySQL 49%); Web servers (IIS 21%, Apache 68%); Mail Servers (Exchange 10%, Sendmail 41%); Email client (Outlook Express 19%, N/A); Web enciclopédias (Encarta Premium 68,000 entradas; Wikipedia 431,195 entradas).1
O movimento colaborativo está prestes a criar massa crítica junto aos usuários residenciais. Acontecendo isto, a tendência é sua velocidade de expansão acelerar. Em paralelo, o paradigma proprietário já emite sinais de saturação. Quando um paradigma técnico ou científico começa a esgotar-se ele tenta absorver elementos do paradigma concorrente para prolongar sua existência hegemônica. Isto não quer dizer que o modelo proprietário será extinto, isto significa que perderá força e será minoritário. Quando o monopólio de software proprietário passa a oferecer uma parte ou a totalidade do seu código-fonte para governos e grandes corporações, mesmo sem a possibilidade de compilação, mesmo com a exigência de um acordo de confidencialidade, isto é a maior demonstração de que o modelo de código fechado não pode ser considerado a priori seguro, como seus vendedores gostavam de falar. Abrir o código é elemento do novo paradigma, não do paradigma proprietário.
Para conter o crescente uso do software livre no segmento educacional e de inclusão digital, muito mais barato e estável, portanto, com custos de manutenção bem menores, o monopólio de software proprietário passa a entregar licenças gratuitas. Ora quem não cobra pela licença de uso do software é o modelo livre. Mas absorver elementos do novo paradigma é um dos sinais mais evidente de esgotamento do modelo de remuneração baseado no pagamento de licenças de propriedade. A maior empresa de software proprietário do mundo já diz trabalhar com o conceito de open source, hoje apenas para confundir, mas em breve por necessidade real.
A mobilização colaborativa em torno do código aberto cresce porque está de acordo com as possibilidades geradas por uma sociedade cada vez mais conectada e em rede. Esta percepção foi muito bem apontada pelo Professor Imre Simon: “A rede Internet está protagonizando um fenômeno novo, sem precedentes na história da nossa civilização, cujas consequências consideramos potencialmente imprevisíveis no momento. Estamos nos referindo à criação cooperativa de bens de informação por centenas, às vezes milhares de autores que se comunicam através da Internet. Mencionamos duas instâncias deste fenômeno, ambas quase inteiramente contida nos últimos dez anos: o advento do sistema operacional GNU/Linux e a construção do conteúdo coletivo da “world wide web”.
NEGAÇÃO DE ACESSO E MONOPÓLIO
A teoria econômica clássica aponta que os monopólios acabam reduzindo o ritmo das inovações, criando distorções de valor e ineficiências. Por isso, a concorrência é enaltecida. O mais interessante é constatar que apesar disso, a propriedade de idéias é baseada em monopólios temporários cedidos pelo Estado ao criador ou inventor. Quando surgiu a proteção legal à propriedade das idéias, esta visava o benefício social e a superação do segredo em relação a uma técnica. Por isso, em troca da socialização de um invento ou técnica, o Estado daria o direito de exploração exclusiva daquele invento ou técnica ao seu criador, por um determinado tempo. O objetivo era garantir o fluxo do conhecimento e não interrompê-lo. O objetivo era assegurar a incorporação das técnicas pela sociedade e não a constituição de uma economia de monopólios. O monopólio temporário de um invento era entendido como um mal necessário e um preço que se pagaria por sua socialização.
Isto não retira a constação da enorme existente na economia das idéias que tem sua remuneração alicerçada na garantia política, ou seja, estatal, da prática de monopólio. Em excesso, esta prática pode acabar perdendo suas qualidades e fazendo emergir suas distorções.
O software talvez seja o mais típico dos bens informacionais, a mais representativa criação da era da informação e um dos principais produtos da economia das idéias ou dos bens intangíveis. Exatamente por ser um bem imaterial, suas qualidades são completamente distintas dos bens materiais. A propriedade sobre uma idéia, uma informação, um algoritmo, um software, ou seja, sobre bens intangíveis é realizada pela negação do acesso. A propriedade de algo que não possui existência física é extremamente complexa.
Os bens intangíveis não possuem as duas características econômicas principais dos bens materiais: a escassez e o desgaste pelo uso. Um produto material para ser produzido em quantidade requer um conjunto de materiais que são finitos e, portanto, sofrem o fenômeno da escassez. Um software para ser reproduzido não exige nada além de uma mídia para a reprodução. Pode ser copiado em rede um vez ou um milhão de vezes. O número de cópias é irrelevante, exatamente por ser um bem imaterial inexiste escassez e desgaste em cada cópia. Além disso, o custo adicional de reprodução de uma cópia é igual a zero, ou é igual ao preço do suporte utilizado para a sua reprodução.
Richard Stallman, fundador do movimento pelo software livre, costuma afirmar que quando duas pessoas trocam maçãs, nada de especial acontece. Uma pessoa que dá sua maçã para a outra e recebe da outra uma maçã em troca, assim cada uma continua com uma única maçã. Isto não ocorre com bens imateriais. Caso duas pessoas troquem idéias, o fenômeno é completamente diferente. Se duas pessoas dão uma idéia, uma para a outra, elas ficam com duas idéias cada uma. Qual a diferença? Quando passo minha idéia ao outro não fico sem esta idéia, continuo com ela. Isto quer dizer que o bem imaterial pode ser clonado, copiado, reproduzido sem nenhuma perda ou desgaste do original.
Estas características é que tornam a propriedade sobre idéias, informações, bens informacionais em geral, completamente dependente da proteção política, ou seja, da lei e do aparato jurídico-repressivo do Estado. Por este motivo, existem somente algumas possibilidades de exercer propriedade sobre informações: a primeira é não as divulgando. A segunda é tentando realizar um controle de acesso. A terceira é pela ação do Estado que agiria contra aqueles que têm o acesso negado pelos criadores da informação. Nesse sentido, a principal forma de propriedade de bens informacionais e imaterias é exclusivamente política.
Apesar destas gigantescas qualidades dos bens informacionais, das idéias e do conhecimento (entendido como informações codificadas, organizadas e processadas), ou seja, não ser escassa, não se desgastar, não se perder quando copiada, em nossa história sócio-econômica isto passou a ser considerado o grande problema. Na verdade, é um grande problema para aplicar sobre estes bens imateriais o contrato de propriedade fundado no princípio das coisas escassaz, não-reprodutíveis a um custo igual a zero e com sua reprodução centrada na exigência de nova matéria-prima. Como resolver este problema? Com o monopólio da definição do acesso dado ao criador.
O problema é quando o monopólio que antes era temporário passa a ser centenário. As legislações estatais ao estenderem o direito de propriedade de um bem imaterial, uma idéia, um conjunto de algoritmos, por mais de 95 anos após a morte do criador estão invertendo a lógica inicial da proteção. Não é mais a sociedade que interessa. Não é mais a garantia do fluxo do conhecimento que importa, mas o que interessa é assegurar a lucratividade máxima para um agente econômico e negar o acesso ao bem protegido pelo maior tempo possível. O exagero passa a sobrepor o controle ao fluxo do conhecimento.
Para incentivar a inovação e a criação, os monopólios são péssimos. Com a expansão dos prazos de monopolização de conhecimento coloca-se em risco as possibilidades de criação e de compartilhamento dos inventos, das grandes sacadas, o que foi fundamental para o gigantesco progresso técnico-científico alcançado pela humanidade até meados do século XX.
No processo que o Departamento de Estado norte-americano moveu contra a Microsoft, os economistas Joseph Stiglitz e Jason Furman apresentaram uma declaração a partir de um estudo que lhes fora encomendado pela Computer & Communications Industry Association, no final de 2002. É importante notar que do ponto de vista da teoria econômica não existe consenso sobre os impactos do monopólio sobre a propriedade intelectual, como é possível notar na declaração a seguir:
"A indústria da tecnologia da informação é caracterizada pela rapidez das mudanças tecnológicas. Como a moderna teoria da competição e monopólios enfatiza, é importante focar não apenas aquilo que afeta o consumidor hoje, mas também como a mistura de monopólio, competição e regime de propriedade intelectual afeta o ritmo e a direção do processo de inovação.
Schumpeter acreditava que o receio de perda das rendas do monopólio levava os monopolistas a continuar inovando, usando os lucros para financiar as inovações. Entretanto, o ritmo com que as inovações são introduzidas poderia ser mais rápido se o poder dos monopólios fosse podado.
O monopólio diminui o passo das inovações de quatro maneiras.
Primeira, inovações precedentes são os principais insumos de inovações subseqüentes. O poder monopolista aumenta o custo de se buscar inovação. E quando se aumenta o custo de um insumo numa atividade, o nível desta atividade cai.
Segunda, com mais barreiras à entrada num negócio, a ameaça de competição schumpeteriana e, portanto, os incentivos para inovar diminuem. Num caso extremo, se um monopólio se assegurar de que não há ameaça de competição, ele não investirá em inovações.
Terceira, a própria inovação pode ser mal-direcionada afim de garantir o aumento tanto das barreiras de entrada quanto dos custos dos rivais. Em sistemas operacionais, o desenvolvimento de padrões proprietários alternativos e a construção de middleware não-interoperável são exemplos de inovações que podem potencialmente reforçar o poder monopolista.
Quarta, os incentivos de um monopólio para inovar são limitados. Como o monopolista produz menos que o socialmente ótimo, as economias com uma redução no custo de produção são menores do que num mercado competitivo. Também os incentivos para um monopolista patrocinar pesquisas não as levarão ao nível socialmente eficiente. Preferencialmente sua preocupação é inovar apenas no ritmo necessário para afastar a competição, um ritmo marcadamente menor que o socialmente ótimo.
Em resumo, monopolização não ameaça os consumidores apenas pelo aumento dos preços e pela redução da produção, mas também reduz a inovação no longo prazo." (STIGLITZ & JASON)
Todo o esforço teórico-doutrinário para defender o monopólio sobre a criação como fundamento do incentico à criação, além dos riscos apontados por Stiglitz e Jason, trata-se de uma argumentação econômica empiricamente fragilizada, pois desconsidera o que Prof. Yoshai Benkler denominou de "commons-based peer-production". Empiricamente constata-se a evolução constante da produção compartilhada de software e, agora com o movimento Creative Commons, também de músicas e outras criações culturais. Também é possível observar o modelo de desenvolvimento "bazar" (termo empregado por Eric Raymond para falar do desenvolvimento distribuído e anarquico do software aberto) que está sendo aplicado em inúmeros projetos internacionais de software, e atualmente envolve aproximadamente 150 mil programadores na construção e correção de cada nova versão do GNU/Linux. O que cada colaborador desta rede de desenvolvimento cede ao produto é bem menor do que o ganho que pode obter posteriormente com o uso deste programa colaborativo. Este processo também foi denominado de gift economy, ou economia da doação.
Benkler, no artigo Coase´s Penquin, or, Linux and The Nature of the Firm, publicado em 2002 no The Yale Law Journal, defendeu que a Internet está viabilizando a produção colaborativa entre pares (common-based peer-production), um conjunto de novas formas cooperativas de produção de informação, conhecimento e cultura em oposição aos mecanismos habituais de propriedade, hierarquia e mercados. Eles estariam baseados na troca e compartilhamento voluntário de trabalho:
“O papel das normas, o papel da tecnologia, e a interação entre voluntarismo e ganho econômico na formação da motivação e organização de uma produção colaborativa são também áreas de pesquisa importantes, particularmente o estudo de como as comunidades de colaboradores se aglutinam em torno de projetos. Estudos qualitativos e quantitativos da importância da produção colaborativa [peer production] na economia informacional geral, em particular na economia informacional baseada na Internet, forneceria uma melhor compreensão sobre quão periférico ou central é esse fenômeno. Para firmas, a emergência da produção colaborativa pode requerer um deslocamento mais agressivo, a partir de modelos negociais baseados em produtos informáticos, em direção a modelos negocias baseados em serviços.” (BENKLER, 2002: 77)
Projetos inovadores estão sendo realizados fora do modelo hegemônico de direitos de propriedade e têm gerado ganho economicamente distribuídos entre os desenvolvedores destes projetos que não se formaram a partir da exigência dos direitos exclusivos sobre a propriedade daquelas idéias. Esta constatação enfraquece profundamente o paradigma da exigência do monopólio econômico da exploração da obra ou invento como elemento essencial para a obtenção de ganho econômico e para incentivo à criatividade e à inovação.
PARA QUE NEGAR O ACESSO AO CÓDIGO-FONTE? PARA EVITAR A PIRATARIA?
Um dos principais argumentos utilizados para defender o modelo proprietário baseado no código-fonte fechado é que com a sua abertura os piratas roubariam os códigos. Trata-se de uma das miragens contemporâneas mais frequentes. Como toda miragem não resiste a realidade. O código-fonte fechado não tem como objetivo evitar a pirataria, mas impedir o livre fluxo do conhecimento com vistas a reduzir o ritmo da inovação que poderia ser feita sobre este código.
A pirataria de software é feita sobre o código executável e não sobre o código-fonte. Um dos softwares mais copiados ilegalmente é o Office. Seu código-fonte está fechado e nem por isso, a pirataria é barrada. O que se pretende com a opacidade dos fontes é evitar que outros possam desenvolver soluções melhores. Por isso, para retirar o máximo de proveito de uma determinada solução informacional é que se faz necessário o código fechado.
Aqui também é importante observar melhor o fenômeno da pirataria. Sem ela seria difícil estabalecer monopólios de algoritmos. O mecanismo é bem claro. O monopólio de software sabe que quanto mais usuários residenciais utilizarem seu software mais ele mantém uma massa crítica indispensável para a fidelização do mundo corporativo. Assim, o custo das licenças já prevê que o mercado pagante é o das empresas e instituições, públicas e privadas.
Nesse sentido, a pirataria é indispensável para a manutenção de uma grande massa crítica para o monopólio. O Estado é indispensável para obrigar o mundo corporativo a pagar pelas licenças de propriedade. Enquanto empresas pagam, o Estado faz vistas grossas para a pirataria residencial. Até por que se começasse a obter mandados judiciais para verificar os computadores residenciais, encontraria uma infinidade de softwares piratas. As pessoas teriam que ser punidas e isto fortaleceria o paradigma oposto, faria o movimento de software livre ganhar mais força.
O modelo de remuneração dos monopólios de software proprietário é insustentável e inviável para usuários residenciais. Basta comparar o preço das licenças de propriedade:2
LOJA KALUNGA
Corel draw 12 full portugues windows Corel CX 1 UN
Popular programa para desenhos vetoriais
R$1.499,00
Office 2003 standard cd port full 021-06316 Microsoft CX 1 UN
Popular suite de escritorios
R$1.499,00
LOJA BRASOFTWARE
Photoshop CS 8.0
Principal programa para tratamento de imagens
R$ 2.822,63
Adobe Illustrator CS
O software gráfico vetorial padrão do setor gráfico
R$ 2.407,13
After Effects 6.5 Standard
Ferramenta para animação gráfica e efeitos visuais
R$ 3.227,05
Adobe InDesign CS
Layout e design profissionais
R$ 3.974,95
Adobe Acrobat 6.0 Professional
Controle avançado de troca e impressão de documentos.
R$ 1.415,00
Flash MX 2004 Professional
Ferramenta de animação para web
R$ 2.127,82
Fireworks MX 2004
Cria, otimiza e integra gráficos para a web.
R$ 908,05
Dreamweaver MX 2004
Popular programa que cria sites e aplicativos de nível profissional para a web.
R$ 1.217,06
Algumas licenças de software bem populares tem o mesmo preço do computador. Um absurdo. É óbvio que a maioria das pessoas em suas casas não pagam por estas licenças, ao mesmo tempo, que esta prática é extremamente funcional a manutenção da hegemonia do paradigma proprietário. Por este motivo a pirataria de software não devia ser chamada de pirataria, mas de prática corsária. Corsários eran piratas a serviço de um poder. A pirataria beneficia os monopólios de software e algoritmo, portanto, na verdade os piratas são corsários digitais, pois servem a manutenção do poder monopolista. O movimento de software livre é alternativa efetiva a prática ilegal de uso não autorizado de licenças de propriedade.
O MODELO PROPRIETÁRIO É PREJUDICIAL AO ESTADO
Por que pagar dezenas vezes pelo mesmo trabalho? Por que não otimizar os gastos públicos? Por que não criar mais soluções novas do que pagar várias vezes pelas mesmas soluções já pagas? Um dos pincípios do Estado é o da economicidade. Por ele, o modelo de software livre seria adotado quase exclusivamente. As vantagens para o Estado com o uso do software livre são bem superiores as que podem ser obtidas com o modelo proprietário de aquisição.
Quando se adquire um software livre, o Estado tem o código-fonte desse software documentado e uma licença permissiva de uso, contendo 4 liberdades: a liberdade de usar o software para qualquer fim, de estudá-lo sem restrições, de alterá-lo e de redistribuir suas alterações. Com isto, ao invés de comprar inúmeras vezes licenças de propriedade, o Estado economiza e compra uma única vez o desenvolvimento do software. Por ser dono do que comprou e pagou, o Estado tem maior autonomia no modelo de software livre.
Ao possuir o código-fonte daquilo que utiliza, o Estado adquire também maior independência diante dos fornecedores. Novos desenvolvimentos e a inclusão de novas funcionalidades no software podem ser realizadas sem incompatibilidades, além de permitir que sempre se possa escolher a melhor empresa desenvolvedora para fazer tais alterações, sem estar aprisionado ao primeiro desenvolvedor.
No modelo proprietário, o Estado nunca é dono do que pagou. O dono sempre será a empresa que detém o código-fonte e a titulariedade do licenciamento proprietário. Trata-se de um modelo ruim e caro para o setor público. Visando confundir para continuar sua exploração econômica, o monopólio de software proprietário quer confundir os gestores públicos ao afirmar que no modelo proprietário está se pagando pelo suporte. Este argumento é equivocado, pois do contrário os Ministérios não teriam que contratar as empresas de informática para dar suporte as soluções proprietárias que implantou. Não haveria necessidade de contratos gigantescos com empresas tercerizadas que ultrapassam hoje o faturamento do Serpro.
Utilizando o modelo de software livre, por exemplo o Estado poderia desenvolver um único GED (sistema de Gestão Eletrônica de Documentos) para todos os seus Ministérios ao invés de desperdiçar mais de R$ 1,5 milhão em cada licença de propriedade para cada uma de suas unidades. Além de assegurar a interoperabilidade e compatibilidade para que tudo se comunique com tudo, as melhorias indispensáveis a cada período poderiam ser realizadas com um custo bem menor, pois inexiste aprisionamentos, opacidade de códigos e descontinuidades, o que permite escolher sempre o melhor e o mais barato desenvolvimento.
No modelo de desenvolvimento e uso de software livre, as soluções podem ter seu código-fonte publicado e devolvido à sociedade. Ao abrir os códigos daquilo que usa o Estado permite que seja criada uma rede de colaboradores para a melhoria e amnutenção dos programas. O modelo do software livre incentiva a colaboração, reduz custos e assegura que os recursos do Estado sejam direcionados para a criação constante de novas soluções e não para remunerar licenças de propriedade.
Walter Bender, diretor do MIT Media Lab ( Laboratório de Mídia do Instituto de Tecnologia de Massachusets) e David Cavallo, também pesquisador do Media Lab, ao responder uma consulta feita pelo ITI sobre o uso de software livre nos programas do governo brasileiro concluíram: "Existe um grande potencial de aprendizagem no uso do software livre que não existe no software proprietário. Se o código fonte é proprietário, é oculto da população em geral. Este fato tira desta população uma grande oportunidade de aprendizado . Quando o código fonte é aberto e existe uma comunidade que aceita contribuições de melhorias ao ambiente ou de novos aplicativos, então tudo isto também é aberto ao mundo, ou, pelo menos, ao mundo com acesso. Não apenas o código fonte serve como exemplo de idéias e implementações de programação, mas a comunidade de desenvolvimento serve como uma comunidade de prática social com o acesso de todos. Isto representa uma base global gratuita de suporte e educação."
BIBLIOGRAFIA
BENKLER, Yochai. (2002) Coase's penguin, or Linux and the nature of the firm. Disponível: http://www.yale.edu/yalelj/112/BenklerWEB.pdf. Acesso em 18 jan 2005.
GUROVITZ, Helio. Linux: o fenômeno do software livre. São Paulo: Editora Abril, 2002. (Coleção Para Saber Mais - Super Interessante)
HEXSEL, Roberto. (2002) Software Livre. Curitiba: Departamento de Informática da Universidade Federal do Paraná. http://www.softwarelivre.gov.br. Acesso em novembro 2003.
O'SULLIVAN, Maureen. (2001) The Linux operating system: a socio-legal study. A thesis submitted in fulfilment of the requirements for the degree of LLM by Research. University of Warwick, School of Law, September 2001.
RAYMOND, Eric S. (2001) The cathedral and the bazaar: musings on Linux and Open Source by an accidental revolutionary. Revisited Edition. Sebastopol, CA: O'Reilly & Associates, Inc.
REZENDE, Pedro Antonio Dourado de. (2001) Sapos piramidais nas guerras virtuais. Episódio I: paradoxos da propriedade intelectual e da segurança computacional. Palestra proferida no III Seminário de Segurança na Informática. Instituto Tecnológico da Aeronáutica. São José dos Campos - SP, 25/10/2001.
Disponível no site: http://www.cic.unb.br/docentes/pedro/trabs/ssi2001.htm. Acesso em 10 dez 2004.
SILVEIRA, Sérgio Amadeu. A mobilização colaborativa e a teoria da propriedade do bem intangível. Tese de doutorado, defendida em outubro de 2005, na USP. Versão sem revisão disponível no site
_______________________ (2005) Corsários digitais, Estado e monopólio de algoritmos. In: Propriedade Intelectual: estudos em homenagem a Professora Maristela Basso. Organização Patrícia Luciane de Carvalho. Curitiba: Juruá.
______________________ (2004) Software livre: a luta pela liberdade do conhecimento. São Paulo: Editora Perseu Abramo. (Coleção Brasil Urgente)
SIMON, Imre. (2000) A propriedade intelectual na era da Internet. Disponível: http://www.ime.usp.br/~is/papir/direitos/index.html. Acesso em 10 dez 2004.
SOFTEX. (2005) O impacto do software livre e de código aberto na indústria de software do Brasil. Campinas: Softex.
STIGLITZ, J.; FURMAN, J. (2002) US vs Microsoft, declaration of Joseph E. Stiglitz and Jason Furman as part of the Tunney Act Proceeding. Commissioned by the Computer & Communications Industry Association, January 28, 2002.
http://www.sbgo.com/Papers/tunney_jesjf.pdf. Acesso em 10 dez. 2004.
TAURION, Cezar. (2004) Software livre: potencialidades e modelos de negócios. Rio de Janeiro: Brasport.
Sunday, August 06, 2006
Inauguração do Telecentro Casa Brasil em Guarulhos
Estas são algumas fotos da inauguração do telecentro Água e Vida, em Gaurulhos, cidade da Grande São Paulo, sábado, dia 05/08/2006, pela manhã. Estive lá a convite do Jesulino, coordenador da Casa Brasil no Estado de São Paulo. Fui com o meu amigo Javier Bustamante, professor da Universidade Complutense de Madri, Espanha, e com a Mayumi, mestranda da USP. Lá encontramos o Edgard Picino, coordenador geral desses telecentros, realizados pela Petrobrás em parceria com a RITS e o ITI. Um dos momentos mais emocionantes do evento foi o dos depoimentos de pessoas mais velhas que aprenderam informática com software livre. Uma delas, uma senhora, disse que em sua casa seus filhos usavam software proprietário, mas ela achava os softwares do telecentro bem melhor. Esses depoimentos desmontam as mentiras espalhadas pelo monopólio de software proprietário e deixam claro que quem aprende informática com software livre torna-se mais capacitado e ganha mais autonomia.
Minha foto em Cuba
Friday, August 04, 2006
Redes virais: conexão sem infra-estrutura de telecom
Trata-se de um novo conceito de construção de uma rede de comunicação sem infra-estrutura de comunicações. Essa rede vai usar cada computador nela conectado como hospedeiro e reprodutor do fluxo de comunicação. Sergio Amadeu da Silveira / 14 de abril de 2006
(publicado originalmente na Revista A Rede, edição n° 13 de abril de 2006).
A palavra vírus provoca imagens ou idéias de contaminação, multiplicação reprodução rápida e fulminante. Para a biologia, um vírus é um microorganismo que se multiplica usando a célula do seu hospedeiro. Na computação, o vírus é um programa malicioso que vem dentro de outro programa, que faz cópias de si mesmo e tenta se espalhar pelos demais computadores. No cenário dos negócios, o marketing viral é a propaganda boca a boca.
No mundo das redes, é cada vez mais forte a idéia da comunicação viral. Mas o que vem a ser uma rede viral? Trata-se de um novo conceito de construção de uma rede de comunicação sem uma infra-estrutura de comunicações. Uma rede que utilize cada computador nela conectado como hospedeiro e reprodutor do fluxo de comunicação. É uma revolução dentro da revolução informacional. É a rede caminhando no sentido da mais completa descentralização, não somente de sua parte lógica, mas também de seus elementos físicos.
A internet representou uma profunda mudança no paradigma das comunicações. Ela é logicamente descentralizada; ao contrário da TV, não depende de um centro emissor. Mas utiliza a infra-estrutura da telefonia para existir e trocar seus pacotes de dados, para conectar os computadores. Imagine, então, usar determinadas ondas de rádio para conectar diretamente um computador com outro. Pense em tirar os fios da internet e criar uma conexão de todos com todos, via wireless (sem fio, em inglês). Calma aí, vamos explicar melhor.
Comunicação viral é o conceito de um sistema de comunicação livre de infra-estrutura, em que os usuários fazem sua própria infra-estrutura. Essa forma de comunicação pode ter o mesmo nível de impacto que a internet teve sobre a comunicação conectada por redes de fios e fibras ópticas. A comunicação se dará como no caso da disseminação de um vírus. Tal como o vírus se prolifera contaminado a célula vizinha, a comunicação viral terá como o agente de propagação os computadores mais próximos. A máquina de seu vizinho servirá para fazer sua mensagem ser transmitida ao vizinho de seu vizinho e assim por diante até chegar ao destino.
Eu sou uma antena
Primeira implicação de um sistema viral é que ficamos livres da infra-estrutura de telefonia (a chamada de última milha) para conectar nossos computadores, palms e notebooks. Segunda, é que a rede viral está mais aberta às inovações, é mais flexível, exatamente por não estar baseada em nenhum sistema central. A terceira implicação está no fato de colocar a inteligência em cada nó da conexão, e não mais em um servidor instalado em um provedor. Ufa!
Criar redes descentralizadas, que não dependam de um ponto central, com a capacidade de se autoconfigurar de acordo com o número de máquinas nela penduradas, exigirá novos algoritmos que assegurem a continuidade do fluxo de informações, se um dos nós cair, ou seja, se desconectar. O algoritmo (conjunto de instruções embutidas em cada placa de comunicação da rede viral) deverá ser capaz de redirecionar a corrente de dados para outros nós. Se a máquina de seu vizinho à direita deu pau, a transmissão continuará através da máquina do vizinho da frente ou à esquerda. Como isso é possível?
Os equipamentos, computadores ou laptops conectados na rede passam a funcionar como aparelhos de retransmissão de informações; passam a trabalhar como pequenas antenas retransmissoras. Isso mesmo, retransmissoras de sinais. Com uma pequena placa inserida em cada computador, ele é transformado em uma pequena estação que roteia o fluxo de dados que estará passando por ele. Ou seja, além do computador receber e enviar dados conforme a vontade de quem o opera, ele também passará a garantir que os computadores vizinhos possam se comunicar utilizando-o como ponte de comunicação.
Agora pense em uma cidade com milhares de computadores. Quanto mais computadores e laptops existirem, menor será a distância entre eles e melhor será a comunicação. Sem fios ou cabos, os dados serão transmitidos por ondas captadas por cada computador, agora transformados em pequenas estações roteadoras de telecomunicações. Hoje, quanto mais pessoas usam uma linha ADSL, menor a velocidade de transmissão dos pacotes de dados. Existe uma redução da velocidade à medida que mais pessoas forem se conectandona rede. Cada novo computador conectado congestiona a rede tradicional.
Quanto mais, melhor.
Ocorrerá exatamente o contrário no caso da arquitetura das redes virais ou ad hoc (feitas com essa finalidade). Quanto mais máquinas funcionando em uma área, mais caminhos para as informações se propagarem, evitarem congestionamentos e chegarem mais rapidamente ao seu destino. A rede viral é uma rede solidária que fica melhor, quando mais máquinas compartilham sua conectividade.
Um dos principais pensadores da comunicação viral é Andrew Lippman, pesquisador e professor do MIT (Instituto de Tecnologia de Massachusetts). Um dos grandes entusiastas o laptop de US$ 100. Milhões de crianças com laptops contendo placa apropriada para comunicação viral vão representar uma enorme massa de computadores-retransmissores necessários a viabilizar, em todas as cidades, a comunicação viral. Sem gastar um centavo de conta telefônica.
A rede viral tem uma topologia mesh. Em redes de comunicação, o termo topologia indica a descrição do arranjo da rede, o desenho como seus nós estão conectados. Quando todos os nós possuem linhas de conexão com um nó central, chamados essa topologia de estrela. Quando os nós se conectam entre si, temos uma topologia mesh. A rede mesh também pode ser feita com a colocação de centenas de antenas com capacidade de conectar entre 30 a 60 computadores cada. Mas também pode ser uma rede ad hoc, ou seja, permite a conexão entre os equipamentos sem fio, sem a necessidade de ponto de acesso.
O futuro da comunicação viral, completamente descentralizada e de baixo custo, coloca instigantes possibilidades para a educação, para a diversidade cultural e para o comércio. Certamente, reordenará a telefonia, pois a voz sobre IP poderá usar a rede mesh para se consolidar, bem como a TV sobre IP poderá viabilizar inúmeros canais de programação e maior diversidade cultural. Outros desafios surgirão, mas a comunicação viral democratiza intensamente a comunicação mediada por computador, desde que as pessoas tenham acesso a um computador. A luta pela inclusão digital é uma corrida contra o tempo, para impedir que nossa sociedade e nossas comunidades fiquem fora da sociedade do conhecimento. Temos pressa.
http://web.media.mit.edu/~lip/ - Página de Andrew Lippman, com informações valiosas e esclarecedoras sobre a comunicação viral. Mas em inglês.
(publicado originalmente na Revista A Rede, edição n° 13 de abril de 2006).
A palavra vírus provoca imagens ou idéias de contaminação, multiplicação reprodução rápida e fulminante. Para a biologia, um vírus é um microorganismo que se multiplica usando a célula do seu hospedeiro. Na computação, o vírus é um programa malicioso que vem dentro de outro programa, que faz cópias de si mesmo e tenta se espalhar pelos demais computadores. No cenário dos negócios, o marketing viral é a propaganda boca a boca.
No mundo das redes, é cada vez mais forte a idéia da comunicação viral. Mas o que vem a ser uma rede viral? Trata-se de um novo conceito de construção de uma rede de comunicação sem uma infra-estrutura de comunicações. Uma rede que utilize cada computador nela conectado como hospedeiro e reprodutor do fluxo de comunicação. É uma revolução dentro da revolução informacional. É a rede caminhando no sentido da mais completa descentralização, não somente de sua parte lógica, mas também de seus elementos físicos.
A internet representou uma profunda mudança no paradigma das comunicações. Ela é logicamente descentralizada; ao contrário da TV, não depende de um centro emissor. Mas utiliza a infra-estrutura da telefonia para existir e trocar seus pacotes de dados, para conectar os computadores. Imagine, então, usar determinadas ondas de rádio para conectar diretamente um computador com outro. Pense em tirar os fios da internet e criar uma conexão de todos com todos, via wireless (sem fio, em inglês). Calma aí, vamos explicar melhor.
Comunicação viral é o conceito de um sistema de comunicação livre de infra-estrutura, em que os usuários fazem sua própria infra-estrutura. Essa forma de comunicação pode ter o mesmo nível de impacto que a internet teve sobre a comunicação conectada por redes de fios e fibras ópticas. A comunicação se dará como no caso da disseminação de um vírus. Tal como o vírus se prolifera contaminado a célula vizinha, a comunicação viral terá como o agente de propagação os computadores mais próximos. A máquina de seu vizinho servirá para fazer sua mensagem ser transmitida ao vizinho de seu vizinho e assim por diante até chegar ao destino.
Eu sou uma antena
Primeira implicação de um sistema viral é que ficamos livres da infra-estrutura de telefonia (a chamada de última milha) para conectar nossos computadores, palms e notebooks. Segunda, é que a rede viral está mais aberta às inovações, é mais flexível, exatamente por não estar baseada em nenhum sistema central. A terceira implicação está no fato de colocar a inteligência em cada nó da conexão, e não mais em um servidor instalado em um provedor. Ufa!
Criar redes descentralizadas, que não dependam de um ponto central, com a capacidade de se autoconfigurar de acordo com o número de máquinas nela penduradas, exigirá novos algoritmos que assegurem a continuidade do fluxo de informações, se um dos nós cair, ou seja, se desconectar. O algoritmo (conjunto de instruções embutidas em cada placa de comunicação da rede viral) deverá ser capaz de redirecionar a corrente de dados para outros nós. Se a máquina de seu vizinho à direita deu pau, a transmissão continuará através da máquina do vizinho da frente ou à esquerda. Como isso é possível?
Os equipamentos, computadores ou laptops conectados na rede passam a funcionar como aparelhos de retransmissão de informações; passam a trabalhar como pequenas antenas retransmissoras. Isso mesmo, retransmissoras de sinais. Com uma pequena placa inserida em cada computador, ele é transformado em uma pequena estação que roteia o fluxo de dados que estará passando por ele. Ou seja, além do computador receber e enviar dados conforme a vontade de quem o opera, ele também passará a garantir que os computadores vizinhos possam se comunicar utilizando-o como ponte de comunicação.
Agora pense em uma cidade com milhares de computadores. Quanto mais computadores e laptops existirem, menor será a distância entre eles e melhor será a comunicação. Sem fios ou cabos, os dados serão transmitidos por ondas captadas por cada computador, agora transformados em pequenas estações roteadoras de telecomunicações. Hoje, quanto mais pessoas usam uma linha ADSL, menor a velocidade de transmissão dos pacotes de dados. Existe uma redução da velocidade à medida que mais pessoas forem se conectandona rede. Cada novo computador conectado congestiona a rede tradicional.
Quanto mais, melhor.
Ocorrerá exatamente o contrário no caso da arquitetura das redes virais ou ad hoc (feitas com essa finalidade). Quanto mais máquinas funcionando em uma área, mais caminhos para as informações se propagarem, evitarem congestionamentos e chegarem mais rapidamente ao seu destino. A rede viral é uma rede solidária que fica melhor, quando mais máquinas compartilham sua conectividade.
Um dos principais pensadores da comunicação viral é Andrew Lippman, pesquisador e professor do MIT (Instituto de Tecnologia de Massachusetts). Um dos grandes entusiastas o laptop de US$ 100. Milhões de crianças com laptops contendo placa apropriada para comunicação viral vão representar uma enorme massa de computadores-retransmissores necessários a viabilizar, em todas as cidades, a comunicação viral. Sem gastar um centavo de conta telefônica.
A rede viral tem uma topologia mesh. Em redes de comunicação, o termo topologia indica a descrição do arranjo da rede, o desenho como seus nós estão conectados. Quando todos os nós possuem linhas de conexão com um nó central, chamados essa topologia de estrela. Quando os nós se conectam entre si, temos uma topologia mesh. A rede mesh também pode ser feita com a colocação de centenas de antenas com capacidade de conectar entre 30 a 60 computadores cada. Mas também pode ser uma rede ad hoc, ou seja, permite a conexão entre os equipamentos sem fio, sem a necessidade de ponto de acesso.
O futuro da comunicação viral, completamente descentralizada e de baixo custo, coloca instigantes possibilidades para a educação, para a diversidade cultural e para o comércio. Certamente, reordenará a telefonia, pois a voz sobre IP poderá usar a rede mesh para se consolidar, bem como a TV sobre IP poderá viabilizar inúmeros canais de programação e maior diversidade cultural. Outros desafios surgirão, mas a comunicação viral democratiza intensamente a comunicação mediada por computador, desde que as pessoas tenham acesso a um computador. A luta pela inclusão digital é uma corrida contra o tempo, para impedir que nossa sociedade e nossas comunidades fiquem fora da sociedade do conhecimento. Temos pressa.
http://web.media.mit.edu/~lip/ - Página de Andrew Lippman, com informações valiosas e esclarecedoras sobre a comunicação viral. Mas em inglês.
Wednesday, August 02, 2006
DEPUTADO BRASILEIRO QUER ACABAR COM ANONIMATO NA INTERNET
A matéria abaixo, publicada no IDG Now, reflete mais uma tentativa obscura de retirar da Internet a liberdade dos fluxos de informação. Quer controlar usuários, quer assegurar as esperanças panópticas daqueles que pouco interesse têm pela liberdade e pela democracia. Vejam o absurdo.
Projeto de lei pode acabar com anonimato de usuários de e-mail
Por Redação do IDG Now!*
Publicada em 31 de julho de 2006 às 09h24
Atualizada em 31 de julho de 2006 às 09h28
Brasília - Deputado Jefferson Campos (PTB-SP) propõe multa a provedores que não mantiverem dados atualizados dos usuários.
A Câmara dos Deputados analisa a proibição de anonimato para usuários de serviços de correio eletrônico registrados no País. A proposta faz parte do Projeto de Lei 6827/06, do deputado Jefferson Campos (PTB-SP), que determina ainda o registro de dados que permitam a identificação do usuário pelos provedores de serviços de correio eletrônico. O registro deve ser feito no momento do fornecimento do endereço eletrônico.
O projeto estabelece que os provedores deverão registrar, arquivar e manter atualizadas as seguintes informações sobre os titulares de endereços eletrônicos: nome completo, endereço residencial, número de identidade e número do Cadastro de Pessoa Física (CPF).
Além disso, os provedores terão que manter, por um prazo mínimo de um ano, registros de todas as mensagens eletrônicas enviadas por usuário. Endereço eletrônico do destinatário da mensagem, data e hora do envio da mensagem e endereço de rede temporariamente atribuído pelo provedor (endereço IP) ao computador utilizado para o envio da mensagem são os dados que deverão ser guardados.
Os infratores estarão sujeitos ao pagamento de multa, que não será inferior a 10 mil reais e aumentará em caso de reincidência. O autor da proposta afirma que "as regras atualmente vigentes permitem a qualquer um abrir uma conta de e-mail, muitas vezes gratuitamente, sem que para isso precise comprovar sua identidade".
Na opinião de Campos, o endereço eletrônico pode ser usado indiscriminadamente na rede, com pouca ou nenhuma possibilidade de identificação do emissor das mensagens, o que dificulta o trabalho policial de investigação dos crimes praticados na internet.
A proposta foi apensada ao PL 3016/00, que regula o registro do acesso a redes de computadores destinados ao uso público. Tramitando em conjunto com o PL 5403/01, que trata do mesmo tema, o PL 6827/06 segue para análise de uma comissão especial, antes de ser votado pelo Plenário.
Projeto de lei pode acabar com anonimato de usuários de e-mail
Por Redação do IDG Now!*
Publicada em 31 de julho de 2006 às 09h24
Atualizada em 31 de julho de 2006 às 09h28
Brasília - Deputado Jefferson Campos (PTB-SP) propõe multa a provedores que não mantiverem dados atualizados dos usuários.
A Câmara dos Deputados analisa a proibição de anonimato para usuários de serviços de correio eletrônico registrados no País. A proposta faz parte do Projeto de Lei 6827/06, do deputado Jefferson Campos (PTB-SP), que determina ainda o registro de dados que permitam a identificação do usuário pelos provedores de serviços de correio eletrônico. O registro deve ser feito no momento do fornecimento do endereço eletrônico.
O projeto estabelece que os provedores deverão registrar, arquivar e manter atualizadas as seguintes informações sobre os titulares de endereços eletrônicos: nome completo, endereço residencial, número de identidade e número do Cadastro de Pessoa Física (CPF).
Além disso, os provedores terão que manter, por um prazo mínimo de um ano, registros de todas as mensagens eletrônicas enviadas por usuário. Endereço eletrônico do destinatário da mensagem, data e hora do envio da mensagem e endereço de rede temporariamente atribuído pelo provedor (endereço IP) ao computador utilizado para o envio da mensagem são os dados que deverão ser guardados.
Os infratores estarão sujeitos ao pagamento de multa, que não será inferior a 10 mil reais e aumentará em caso de reincidência. O autor da proposta afirma que "as regras atualmente vigentes permitem a qualquer um abrir uma conta de e-mail, muitas vezes gratuitamente, sem que para isso precise comprovar sua identidade".
Na opinião de Campos, o endereço eletrônico pode ser usado indiscriminadamente na rede, com pouca ou nenhuma possibilidade de identificação do emissor das mensagens, o que dificulta o trabalho policial de investigação dos crimes praticados na internet.
A proposta foi apensada ao PL 3016/00, que regula o registro do acesso a redes de computadores destinados ao uso público. Tramitando em conjunto com o PL 5403/01, que trata do mesmo tema, o PL 6827/06 segue para análise de uma comissão especial, antes de ser votado pelo Plenário.
Tuesday, August 01, 2006
Atenção: Internet pode ser gravemente afetada por uma medida discriminatória.
Na Quarta-feira, 21 de Junho de 2006, publiquei no blog da minha matéria, na Cásper Líbero, o texto abaixo:
Intensificam-se as disputas que definirão o futuro da rede mundial de computadores. Alterar a forma como os pacotes de dados são transferidos na net pode afetar o conjunto da comunicação mediada por computador. Esta é a denúncia dos professores Lawrence Lessig e Robert McChesney. Todavia, existe um grave problema na argumentação dos dois professores. A internet não foi neutra até hoje. Ela optou pela prática da não-interferência. O conceito de neutralidade é inadequado para a correta defesa que os professores Lessig e McChesney fazem da manutenção da política de não interferência nos pacotes que trafegam pela rede. O conceito de neutralidade pode ser interpretado como aquilo que é feito pelo mercado. Os neoliberais dizem que o mercado é neutro. As operadoras de telefonia podem dizer que o problema dos pacotes deve ser tratado pelas regras de mercado. A Internet nunca foi neutra, ela optou pela liberdade dos fluxos de pela não interferência nos pacotes transitados sobre a infra-estrutura de telecomunicações.
Prof. Sergio Amadeu
posted by AulaPos @ 8:57 PM
by Lawrence Lessig and Robert W. McChesney
O Congresso americano está prestes a realizar uma votação histórica sobre o futuro da internet. Decidirá se a internet vai permanecer uma tecnologia livre e aberta que fomenta a inovação, o crescimento econômico e a comunicação democrática ou se será transformada em propriedade de empresas a cabo e companhias telefônicas, que poderão colocar cabines de pedágio em todos os acessos e saídas da auto-estrada da informação.
No centro deste debate está a mais importante política pública da qual provavelmente você nunca ouviu falar - a "neutralidade na rede".
Neutralidade na rede significa simplesmente que todo o conteúdo na internet deve ser tratado da mesma forma e movimentado pela rede à mesma velocidade. Os proprietários da fiação da internet não podem fazer discriminação. Este é o projeto simples, mas brilhante, "de ponta a ponta" da internet que fez dela uma força tão poderosa para o bem econômico e social - todas as informações e o controle são detidos pelos produtores e usuários, e não pelas redes que os conectam.
As proteções que garantiam a neutralidade da rede foram uma lei desde o nascimento da internet - vigorando até o ano passado, quando a Federal Communications Commission (Comissão Federal de Comunicações) eliminou as normas que impediam as empresas a cabo e de telefonia de discriminar provedores de conteúdo. Isso desencadeou uma onda de anúncios da parte de diretores-presidentes de empresas telefônicas dizendo que planejam fazer exatamente isso.
Agora o Congresso está diante de uma decisão. Vamos devolver a neutralidade à rede e manter a internet livre? Ou vamos deixar que ela morra nas mãos dos proprietários de redes que estão ansiosos para se transformarem em guarda-cancelas do conteúdo? As implicações de se perder para sempre a neutralidade da rede não poderiam ser mais graves.
A atual legislação, que conta com o respaldo de empresas como AT&T, Verizon e Comcast, permitirá que as firmas criem diferentes camadas de serviços online. Elas poderão vender acesso à via expressa para grandes empresas e relegar todos os demais ao equivalente digital a uma tortuosa estrada de terra. Pior ainda: esses guardiães determinarão quem vai ter tratamento especial e quem não vai.
A idéia deles é se postar entre o provedor de conteúdo e o consumidor, exigindo um pedágio para garantir um serviço de qualidade. É o que Timothy Wu, um especialista em política da internet da Columbia University, chama de "modelo de negócios Tony Soprano (personagem que é chefe da máfia da série de televisão Família Soprano)". Ou seja, extorquindo dinheiro para proteção de todos os sites na web - desde o menor dos blogueiros até o Google -, os proprietários de rede terão imensos lucros.
Sem a neutralidade da rede, a internet começaria a ficar parecida com a TV a cabo. Uma meia dúzia de grandes empresas controlarão o acesso ao conteúdo e sua distribuição, decidindo o que você vai ver e quanto vai pagar por isso.
Os grandes setores como os de assistência médica, finanças, varejo e jogo vão se defrontar com enormes tarifas para o uso rápido e seguro da web - todos sujeitos a negociações discriminatórias e exclusivas com as gigantes da telefonia e da telefonia a cabo.
Perderemos a oportunidade de expandir vastamente o acesso e a distribuição de notícias independentes e de informações comunitárias por meio da televisão de banda larga. Mais de 60% do conteúdo da web é criado por pessoas comuns, e não por empresas. Como essa inovação e produção vão progredir se seus criadores vão precisar pedir permissão a um cartel de proprietários de rede?
O cheiro dos lucros caídos do céu paira no ar em Washington. As empresas de telefonia estão fazendo o máximo possível para legislar para si mesmas o poder do monopólio. Estão gastando milhões em dólares em propaganda nos círculos do poder em Washington, em lobistas muito bem pagos, em firmas de pesquisa e consultoria que podem ser "compradas" e em operações de falsas bases populares com nomes Orwellianos como Hands Off the Internet e NetCompetition.org.
A elas se opõem uma coalizão de verdadeiras bases populares de mais de 700 grupos, 5 mil blogueiros e 750 mil americanos que se arregimentaram para apoiar a neutralidade da rede no site www.savetheinternet.com . A coalizão é de esquerda e de direita, comercial e não comercial, pública e privada. Conta com o apoio de instituições das mais diversas áreas. Inclui também os fundadores da internet, as marcas famosas do Vale do Silício e um bloco de varejistas, inovadores e empreendedores. Coalizão de tais amplitude, profundidade e determinação são raras na política contemporânea.
A maioria dos grandes inovadores da história da internet começou na garagem de suas casas, com grandes idéias e um pequeno capital. Isso não é por acaso. As proteções à neutralidade da rede minimizaram o controle pelos proprietários de rede, maximizaram a competição e convidaram forasteiros a inovar. A neutralidade da rede garantiu um mercado livre e competitivo para o conteúdo da internet. Os benefícios são extraordinários e inegáveis.
O Congresso está decidindo o futuro da internet. A questão que se apresenta é simples: deve a internet ser entregue à meia dúzia de empresas a cabo e de telefonia que controlam o acesso online de 98% do mercado de banda larga? Somente um Congresso cercado por lobistas de telecomunicações de alto preço e recheado com contribuições para campanha poderá possivelmente considerar um tal ato absurdo.
As pessoas estão acordando para o que está em jogo, e suas vozes estão ficando cada vez mais altas a cada dia que passa. À medida que milhões de cidadãos forem se dando conta dos fatos, a mensagem para o Congresso será clara: Salvem a internet.
* Lawrence Lessig é professor de Direito na Stanford University e fundador do Center for Internet and Society (Centro de Internet e Sociedade).
* Robert McChesney é professor de Comunicações na Universidade de Illinois em Urbana-Champaign e co-fundador da entidade para reformulação da mídia Free Press. “
Intensificam-se as disputas que definirão o futuro da rede mundial de computadores. Alterar a forma como os pacotes de dados são transferidos na net pode afetar o conjunto da comunicação mediada por computador. Esta é a denúncia dos professores Lawrence Lessig e Robert McChesney. Todavia, existe um grave problema na argumentação dos dois professores. A internet não foi neutra até hoje. Ela optou pela prática da não-interferência. O conceito de neutralidade é inadequado para a correta defesa que os professores Lessig e McChesney fazem da manutenção da política de não interferência nos pacotes que trafegam pela rede. O conceito de neutralidade pode ser interpretado como aquilo que é feito pelo mercado. Os neoliberais dizem que o mercado é neutro. As operadoras de telefonia podem dizer que o problema dos pacotes deve ser tratado pelas regras de mercado. A Internet nunca foi neutra, ela optou pela liberdade dos fluxos de pela não interferência nos pacotes transitados sobre a infra-estrutura de telecomunicações.
Prof. Sergio Amadeu
posted by AulaPos @ 8:57 PM
Nada de pedágio na internet
by Lawrence Lessig and Robert W. McChesney
O Congresso americano está prestes a realizar uma votação histórica sobre o futuro da internet. Decidirá se a internet vai permanecer uma tecnologia livre e aberta que fomenta a inovação, o crescimento econômico e a comunicação democrática ou se será transformada em propriedade de empresas a cabo e companhias telefônicas, que poderão colocar cabines de pedágio em todos os acessos e saídas da auto-estrada da informação.
No centro deste debate está a mais importante política pública da qual provavelmente você nunca ouviu falar - a "neutralidade na rede".
Neutralidade na rede significa simplesmente que todo o conteúdo na internet deve ser tratado da mesma forma e movimentado pela rede à mesma velocidade. Os proprietários da fiação da internet não podem fazer discriminação. Este é o projeto simples, mas brilhante, "de ponta a ponta" da internet que fez dela uma força tão poderosa para o bem econômico e social - todas as informações e o controle são detidos pelos produtores e usuários, e não pelas redes que os conectam.
As proteções que garantiam a neutralidade da rede foram uma lei desde o nascimento da internet - vigorando até o ano passado, quando a Federal Communications Commission (Comissão Federal de Comunicações) eliminou as normas que impediam as empresas a cabo e de telefonia de discriminar provedores de conteúdo. Isso desencadeou uma onda de anúncios da parte de diretores-presidentes de empresas telefônicas dizendo que planejam fazer exatamente isso.
Agora o Congresso está diante de uma decisão. Vamos devolver a neutralidade à rede e manter a internet livre? Ou vamos deixar que ela morra nas mãos dos proprietários de redes que estão ansiosos para se transformarem em guarda-cancelas do conteúdo? As implicações de se perder para sempre a neutralidade da rede não poderiam ser mais graves.
A atual legislação, que conta com o respaldo de empresas como AT&T, Verizon e Comcast, permitirá que as firmas criem diferentes camadas de serviços online. Elas poderão vender acesso à via expressa para grandes empresas e relegar todos os demais ao equivalente digital a uma tortuosa estrada de terra. Pior ainda: esses guardiães determinarão quem vai ter tratamento especial e quem não vai.
A idéia deles é se postar entre o provedor de conteúdo e o consumidor, exigindo um pedágio para garantir um serviço de qualidade. É o que Timothy Wu, um especialista em política da internet da Columbia University, chama de "modelo de negócios Tony Soprano (personagem que é chefe da máfia da série de televisão Família Soprano)". Ou seja, extorquindo dinheiro para proteção de todos os sites na web - desde o menor dos blogueiros até o Google -, os proprietários de rede terão imensos lucros.
Sem a neutralidade da rede, a internet começaria a ficar parecida com a TV a cabo. Uma meia dúzia de grandes empresas controlarão o acesso ao conteúdo e sua distribuição, decidindo o que você vai ver e quanto vai pagar por isso.
Os grandes setores como os de assistência médica, finanças, varejo e jogo vão se defrontar com enormes tarifas para o uso rápido e seguro da web - todos sujeitos a negociações discriminatórias e exclusivas com as gigantes da telefonia e da telefonia a cabo.
Perderemos a oportunidade de expandir vastamente o acesso e a distribuição de notícias independentes e de informações comunitárias por meio da televisão de banda larga. Mais de 60% do conteúdo da web é criado por pessoas comuns, e não por empresas. Como essa inovação e produção vão progredir se seus criadores vão precisar pedir permissão a um cartel de proprietários de rede?
O cheiro dos lucros caídos do céu paira no ar em Washington. As empresas de telefonia estão fazendo o máximo possível para legislar para si mesmas o poder do monopólio. Estão gastando milhões em dólares em propaganda nos círculos do poder em Washington, em lobistas muito bem pagos, em firmas de pesquisa e consultoria que podem ser "compradas" e em operações de falsas bases populares com nomes Orwellianos como Hands Off the Internet e NetCompetition.org.
A elas se opõem uma coalizão de verdadeiras bases populares de mais de 700 grupos, 5 mil blogueiros e 750 mil americanos que se arregimentaram para apoiar a neutralidade da rede no site www.savetheinternet.com . A coalizão é de esquerda e de direita, comercial e não comercial, pública e privada. Conta com o apoio de instituições das mais diversas áreas. Inclui também os fundadores da internet, as marcas famosas do Vale do Silício e um bloco de varejistas, inovadores e empreendedores. Coalizão de tais amplitude, profundidade e determinação são raras na política contemporânea.
A maioria dos grandes inovadores da história da internet começou na garagem de suas casas, com grandes idéias e um pequeno capital. Isso não é por acaso. As proteções à neutralidade da rede minimizaram o controle pelos proprietários de rede, maximizaram a competição e convidaram forasteiros a inovar. A neutralidade da rede garantiu um mercado livre e competitivo para o conteúdo da internet. Os benefícios são extraordinários e inegáveis.
O Congresso está decidindo o futuro da internet. A questão que se apresenta é simples: deve a internet ser entregue à meia dúzia de empresas a cabo e de telefonia que controlam o acesso online de 98% do mercado de banda larga? Somente um Congresso cercado por lobistas de telecomunicações de alto preço e recheado com contribuições para campanha poderá possivelmente considerar um tal ato absurdo.
As pessoas estão acordando para o que está em jogo, e suas vozes estão ficando cada vez mais altas a cada dia que passa. À medida que milhões de cidadãos forem se dando conta dos fatos, a mensagem para o Congresso será clara: Salvem a internet.
* Lawrence Lessig é professor de Direito na Stanford University e fundador do Center for Internet and Society (Centro de Internet e Sociedade).
* Robert McChesney é professor de Comunicações na Universidade de Illinois em Urbana-Champaign e co-fundador da entidade para reformulação da mídia Free Press. “
Blogsphere: entre blogs, fotologs e vlogs.
Um silencioso e devastador processo está alterando profundamente as possibilidades de produção, edição e disseminação de textos, sons, imagens, vídeos, enfim, de idéias e informações. Bem-vindo à blogsphere, a esfera dos blogs. O futuro da TV está aqui.
Sergio Amadeu da Silveira
(Matéria publicada na Revista A Rede na edição de 20/07/20006)
Blogs são uma realidade na internet. Surgiram como diários íntimos, textos considerados sem grandes compromissos, mas, atualmente, já ocupam grande importância até para o jornalismo tradicional. Apesar de ser um fenômeno recente, está repleto de histórias heróicas envolvendo blogueiros e seus blogs. Bill Clinton quase perdeu o mandato, quando um blog denunciou seu caso com uma estagiária. Certos da impunidade, soldados norte-americanos publicaram em seus blogs as fotos das humilhações que impunham aos presos iraquianos. Mas cidadãos indignados, navegando nesses blogs, fizeram daqueles relatos provas, verdadeiras confissões das atrocidades de uma guerra. Durante o 11 de setembro, enquanto Nova York vivia o pânico, os blogs trouxeram informações para o mundo carente de notícias.
Denise Schittine, no seu livro “Blog: Comunicação e Escrita Íntima na Internet”, sugere que “os diaristas virtuais, donos de suas páginas pessoais, tinham, pela primeira vez, a oportunidade de veicular uma notícia antes mesmo que os meios de comunicação tradicionais conseguissem fazê-lo. Mas transmitiriam essa notícia de uma forma diferente, impregnada de impressões, seus medos e seus comentários sobre o acontecimento (11 de setembro).” (...) “Embora já existissem no universo dos blogs, esses ‘editores autônomos’ conseguiram dar aos seus diários íntimos uma enorme relevância jornalística nessa situação.”
Blog vem da contração do termo “web”, página na internet, com “log”, diário de bordo. Um blog ou weblog nasceu como um site pessoal, atualizado diariamente (ou quase), no final dos anos 90. Nos blogs, as pessoas podem comentar os textos e interagir com os autores. O fenômeno de escrever blogs se alastrou de tal forma, que gerou inúmeros portais gratuitos para hospedá-los. Somente o Blig, blog do provedor iG, registrou, em março de 2004, 270 mil blogs. Estima-se que já temos mais de 10 milhões de blogs ativos na internet. Empresas, profissionais liberais, professores, entre tantos outros, passaram a utilizar o blog para comunicar idéias, interesses, propostas ou, simplesmente, para divulgar sua existência.
O crescimento da blogsphere é tão intenso, que o Google acaba de lançar um serviço de busca especial para encontrar blogs e textos em blogs (www.google.com/blogsearch), que possui bots (rôbos de busca) mais rápidos do que aqueles que fazem a pesquisa na web. Entre as causas do sucesso, podemos ver aquela apontada pelo portal Blogger (www.blogger.com). Na sua home, podemos ler: “um blog é um site de fácil utilização, onde você pode postar rapidamente o que pensa, interagir com as pessoas e muito mais. E tudo isso é Grátis.” Exatamente isso. Enquanto fazer uma página pessoal exigia inúmeros passos, subir um blog é extremamente fácil, e não requer conhecimentos de html ou de qualquer outra linguagem. Além disso, a hospedagem é gratuita. E, depois dos blogs, vieram os fotologs – em vez de textos, as pessoas publicam suas fotos ou comentam as imagens e fotos dos outros.
VOCÊ NO TUBO
A explosão dos blogs parece que será menor do que a que está por vir: a dos vídeos. Imagine a quantidade de celulares com câmaras de vídeo, de máquinas digitais, webcams, palmtops e filmadoras semiprofissionais espalhadas pelo mundo. Pense agora no que as pessoas poderão fazer, se tiverem a oportunidade de publicar seus vídeos, da mesma forma que, hoje, podem publicar textos em seus blogs.
Assim como ocorreu com os blogs, os vídeos blogs ou vlogs já possuem vários portais de hospedagem gratuita. O mais famoso é o YouTube (www.youtube.com). Temos também o Videolog TV (www.videolog.com.br), o Google Vídeo (http://video.google.com) e outros. Chad Hurley e Steve Chen criaram, em fevereiro de 2005, a YouTube. Em agosto do mesmo ano, atingiram a audiência de 30 mil vídeos assistidos por dia. Atualmente, já ultrapassam a marca de 1 milhão de vídeos vistos diariamente. Isso é somente o começo.
Um evento de um telecentro, as exposições e espetáculos dos grupos culturais, o debate dos grupos de amigos, os professores e suas aulas, bailarinos, mímicos, baladas, enfim, tudo pode ser captado por uma filmadora amadora e levado para a publicação em um blog próprio ou em um local de exibição coletiva de vídeos. Genial.
Melhor ainda é se o pessoal quiser editar os vídeos, antes de subi-los para um vlog, usando o software livre chamado Cinelerra. Veja o que a turma do Estúdio Livre (www.estudiolivre.org/tiki-index.php?page=Cinelerra) escreveu: “O Cinelerra é provavelmente o melhor programa de edição de vídeos para sistemas operacionais livres. Com ele, você pode capturar, editar, usar efeitos, mexer e mixar várias trilhas de áudio e vídeo em tempo real — enfim, tudo o que se espera de um bom editor de vídeos. (...) Atualmente, o Cinelerra ‘oficial’ é desenvolvido pelo pessoal do site Heroine Warrior (http://heroinewarrior.com/cinelerra.php3), que publica as novas versões de tempos em tempos. Um projeto paralelo, com atualizações mais freqüentes e novas características (como tradução do programa para português ou correção mais rápida de erros) é mantido pelo pessoal do CVS (http://cvs.cinelerra.org/).”
Enquanto o pessoal aprende a trabalhar com ferramentas de edição, não perca tempo. Sua comunidade, seu telecentro, pode inundar a rede com inúmeros vídeos. Montando um vlog de sua comunidade, será possível fazer vídeos em uma única tomada ou com pequenos cortes e edição simples. O importante é que uma manifestação pode ser coberta e colocada na rede mundial. Imagens de violação dos direitos humanos podem ajudar a defender a cidadania, vídeos sobre corte ilegal de madeira podem ajudar a proteger a Amazônia, ou, simplesmente, a mensagem de lideranças autênticas podem mostrar o outro lado das coisas.
CONSULTE:
http://community.vlogmap.org/welcome — O mapa mundial dos vlogs, tentativa de mapeamento das comunidades de vlogueiros.
http://freevlog.org/translations/portuguese/ — Tutorial para fazer um videoblog (em português).
http://www.ourmedia.org/ — Ourmedia.org (Nossa Mídia, em português). Comunidade global e centro de aprendizado, onde é possível expor os seus trabalhos de mídia. Vídeos, blogs, fotos, filmes de estudantes — são hospedados todos os tipos de trabalhos digitais nascidos fora da grande mídia. É projeto colaborativo, open source, feito por voluntários. Mas ainda está somente em inglês.
Sergio Amadeu da Silveira
(Matéria publicada na Revista A Rede
Blogs são uma realidade na internet. Surgiram como diários íntimos, textos considerados sem grandes compromissos, mas, atualmente, já ocupam grande importância até para o jornalismo tradicional. Apesar de ser um fenômeno recente, está repleto de histórias heróicas envolvendo blogueiros e seus blogs. Bill Clinton quase perdeu o mandato, quando um blog denunciou seu caso com uma estagiária. Certos da impunidade, soldados norte-americanos publicaram em seus blogs as fotos das humilhações que impunham aos presos iraquianos. Mas cidadãos indignados, navegando nesses blogs, fizeram daqueles relatos provas, verdadeiras confissões das atrocidades de uma guerra. Durante o 11 de setembro, enquanto Nova York vivia o pânico, os blogs trouxeram informações para o mundo carente de notícias.
Denise Schittine, no seu livro “Blog: Comunicação e Escrita Íntima na Internet”, sugere que “os diaristas virtuais, donos de suas páginas pessoais, tinham, pela primeira vez, a oportunidade de veicular uma notícia antes mesmo que os meios de comunicação tradicionais conseguissem fazê-lo. Mas transmitiriam essa notícia de uma forma diferente, impregnada de impressões, seus medos e seus comentários sobre o acontecimento (11 de setembro).” (...) “Embora já existissem no universo dos blogs, esses ‘editores autônomos’ conseguiram dar aos seus diários íntimos uma enorme relevância jornalística nessa situação.”
Blog vem da contração do termo “web”, página na internet, com “log”, diário de bordo. Um blog ou weblog nasceu como um site pessoal, atualizado diariamente (ou quase), no final dos anos 90. Nos blogs, as pessoas podem comentar os textos e interagir com os autores. O fenômeno de escrever blogs se alastrou de tal forma, que gerou inúmeros portais gratuitos para hospedá-los. Somente o Blig, blog do provedor iG, registrou, em março de 2004, 270 mil blogs. Estima-se que já temos mais de 10 milhões de blogs ativos na internet. Empresas, profissionais liberais, professores, entre tantos outros, passaram a utilizar o blog para comunicar idéias, interesses, propostas ou, simplesmente, para divulgar sua existência.
O crescimento da blogsphere é tão intenso, que o Google acaba de lançar um serviço de busca especial para encontrar blogs e textos em blogs (www.google.com/blogsearch), que possui bots (rôbos de busca) mais rápidos do que aqueles que fazem a pesquisa na web. Entre as causas do sucesso, podemos ver aquela apontada pelo portal Blogger (www.blogger.com). Na sua home, podemos ler: “um blog é um site de fácil utilização, onde você pode postar rapidamente o que pensa, interagir com as pessoas e muito mais. E tudo isso é Grátis.” Exatamente isso. Enquanto fazer uma página pessoal exigia inúmeros passos, subir um blog é extremamente fácil, e não requer conhecimentos de html ou de qualquer outra linguagem. Além disso, a hospedagem é gratuita. E, depois dos blogs, vieram os fotologs – em vez de textos, as pessoas publicam suas fotos ou comentam as imagens e fotos dos outros.
VOCÊ NO TUBO
A explosão dos blogs parece que será menor do que a que está por vir: a dos vídeos. Imagine a quantidade de celulares com câmaras de vídeo, de máquinas digitais, webcams, palmtops e filmadoras semiprofissionais espalhadas pelo mundo. Pense agora no que as pessoas poderão fazer, se tiverem a oportunidade de publicar seus vídeos, da mesma forma que, hoje, podem publicar textos em seus blogs.
Assim como ocorreu com os blogs, os vídeos blogs ou vlogs já possuem vários portais de hospedagem gratuita. O mais famoso é o YouTube (www.youtube.com). Temos também o Videolog TV (www.videolog.com.br), o Google Vídeo (http://video.google.com) e outros. Chad Hurley e Steve Chen criaram, em fevereiro de 2005, a YouTube. Em agosto do mesmo ano, atingiram a audiência de 30 mil vídeos assistidos por dia. Atualmente, já ultrapassam a marca de 1 milhão de vídeos vistos diariamente. Isso é somente o começo.
Um evento de um telecentro, as exposições e espetáculos dos grupos culturais, o debate dos grupos de amigos, os professores e suas aulas, bailarinos, mímicos, baladas, enfim, tudo pode ser captado por uma filmadora amadora e levado para a publicação em um blog próprio ou em um local de exibição coletiva de vídeos. Genial.
Melhor ainda é se o pessoal quiser editar os vídeos, antes de subi-los para um vlog, usando o software livre chamado Cinelerra. Veja o que a turma do Estúdio Livre (www.estudiolivre.org/tiki-index.php?page=Cinelerra) escreveu: “O Cinelerra é provavelmente o melhor programa de edição de vídeos para sistemas operacionais livres. Com ele, você pode capturar, editar, usar efeitos, mexer e mixar várias trilhas de áudio e vídeo em tempo real — enfim, tudo o que se espera de um bom editor de vídeos. (...) Atualmente, o Cinelerra ‘oficial’ é desenvolvido pelo pessoal do site Heroine Warrior (http://heroinewarrior.com/cinelerra.php3), que publica as novas versões de tempos em tempos. Um projeto paralelo, com atualizações mais freqüentes e novas características (como tradução do programa para português ou correção mais rápida de erros) é mantido pelo pessoal do CVS (http://cvs.cinelerra.org/).”
Enquanto o pessoal aprende a trabalhar com ferramentas de edição, não perca tempo. Sua comunidade, seu telecentro, pode inundar a rede com inúmeros vídeos. Montando um vlog de sua comunidade, será possível fazer vídeos em uma única tomada ou com pequenos cortes e edição simples. O importante é que uma manifestação pode ser coberta e colocada na rede mundial. Imagens de violação dos direitos humanos podem ajudar a defender a cidadania, vídeos sobre corte ilegal de madeira podem ajudar a proteger a Amazônia, ou, simplesmente, a mensagem de lideranças autênticas podem mostrar o outro lado das coisas.
CONSULTE:
http://community.vlogmap.org/welcome — O mapa mundial dos vlogs, tentativa de mapeamento das comunidades de vlogueiros.
http://freevlog.org/translations/portuguese/ — Tutorial para fazer um videoblog (em português).
http://www.ourmedia.org/ — Ourmedia.org (Nossa Mídia, em português). Comunidade global e centro de aprendizado, onde é possível expor os seus trabalhos de mídia. Vídeos, blogs, fotos, filmes de estudantes — são hospedados todos os tipos de trabalhos digitais nascidos fora da grande mídia. É projeto colaborativo, open source, feito por voluntários. Mas ainda está somente em inglês.
ENTREVISTA SOBRE PORQUE O SOFTWARE LIVRE NÃO PARA DE CRESCER.
Esta foi uma entrevista que dei a Thaís Chita, no dia 1 de agosto. Ela é jornalista e grande colaboradora do Instituto Paulo Freire. Ela estava editando uma matéria sobre o software livre. Está sem revisão.
1) Como surgiu e a evolução do software livre no Brasil e fora dele?
O movimento surgiu com Richard Stallman, em meados dos anos 1980, nos Estados Unidos. Stallman era um hacker importante e trabalhava como pesquisador no MIT. Ele fundou a Free Software Foundation(FSF). Imediatamente uma série de pessoas passaram a colaborar com o desenvolvimento de programas de código aberto usando as grandes possibilidades de compartilhamento e colaboração que as redes informacionais permitem. A FSF queria fazer um sistema operacional livre que fosse baseado no Unix, um sistema operacional que tinha o código aberto, mas era proprietário. Em 1992, o estudante de matemática finlandes chamado Linus Torvalds juntou os vários esforços colaborativos e usando o compilador GCC, criado por Stallman, lançou a primeira versão do LINUX.
A partir disso, a comunidade cresceu velozmente no planeta. Vários outros softwares foram criados com base na prática colaborativa. Um dos sites que reunem projetos de software livre é o www.sourceforge.net . Nele atualmente temos mais de 125 mil projetos de código aberto e mais de 1 milhão e 300 mil colaboradores. Muitos desenvolvedores são barsileiros. O Brasil teve uma das primeiras distribuições LINUX comerciais chamada Conectiva. Uma empresa de Campinas, a INSIGNE já vendeu mais de 250 mil computadores com sua versão Linux, o Linux Insigne. Um último exemplo, até o Anima Mundi utiliza software livre para disseminar suas animações.
2) Por que o Movimento Software Livre cresce tanto em nosso país? Como funciona a Rede Livre?
O Brasil tem um enorme talento para o desenvolvimento d esoftware. Ocorre que no mundo proprietário, os brasileiros são meros arrastadores de ícones. No mundo do software livre, podemos desenvolver toda nossa potencialidade. Quando jovens com vocação para a programação descobrem o software livre, eles aderem e passam a colaborar com o desenvolvimento dos softwares que utilizam.
No início do governo Lula, o grande trabalho de disseminar a idéia do software livre pelo país e quebrar a reserva de mercado existente para produtos de uma única empresa monopolista norte-amnericana incentivou fortemente a mobilização colaborativa em torno do software livre no Brasil.
A Rede Livre é uma ONG nova que trabalha para formar jovens que possam prestar serviços de suporte aos usuários residenciais. O jovem carente ganha um curso técnico em software livre e se torna apto a migrar os computadores das pessoas e a mantê-los funcionando bem. A Rede Livre quer montar uma opção para os cidadãos que não querem mais usar softwares piratas ou inseguros, como é o caso do software proprietário mais comum. A Rede Livre manterá um site onde as pessoas poderão achar o contato dos jovens e poderão contratá-los para dar suporte de informática livre em sues residencias.
3) A utilização do software livre alcança quais outros espaços além, claro, da informática?
A idéia da colaboração avança para todas as áreas do conhecimento e, com o creative commons, atinge também a produção cultural, música, literatura, cinema, artes, fotografia, etc. Temos até a free beer, ou seja, uma cerveja livre, onde as pessoas podem ajudar a melhorar a sua receita e compratilhar as melhorias pela Internet. Temos a produçãode notícias colaborativa sobre a cultura brasileira no site do www.overmundo.org.br . Temos a grande wikipedia, a maior enciclopédia do planeta.
4) As pessoas em geral têm receio de trabalharem com software livre? Sim, não e porquê.
As pessoas, em geral, têm medo daquilo que não conhecem. Todavia, existe uma campanha falaciosa promovida pelo monopólio de software proprietário para tentar manter sua condição de monopólio e continuar extraindo riquezas dos paíse em desenvolvimento que acabam pagando milhões de dólares em royalties pelo uso de licenças de propriedade de software.
A maior dificuldade é que o modelo proprietário de software procura aprisionar os seus usuários, criar softwares que não aceitam formatos de outras empresas, disseminar o máximo de dificuldades possíveis para evitar que o cidadão mude de solução, tenha alternativas e ganhe liberdade. Por isso, que os programas de inclusão digital com software livre dão muito certo. Nas áreas sem herança de software proprietário, as pessoas aprendem software livre e quando acabam conhecendo o software proprietário passam a ver a superioridade do modelo livre. Como aprenderam as funcionalidades dos programas, sem seram bitoladas e adestradas em determinados ícones, elas acabam sendo pessoas que adquirem maior desenvoltura no uso da informática.
5) Por que você está com tudo isso?
Não sei se entendi a pergunta.
Defendo o software livre porque defendo que o conhecimento não é propriedade de ninguém. Se ele pertence a alguém, pertence a humanidade. Acho que compartilhar o conhecimento gera também a redistribuição dos fluxos de riqueza e de poder, principalmente em uma sociedade baseada na informação.
1) Como surgiu e a evolução do software livre no Brasil e fora dele?
O movimento surgiu com Richard Stallman, em meados dos anos 1980, nos Estados Unidos. Stallman era um hacker importante e trabalhava como pesquisador no MIT. Ele fundou a Free Software Foundation(FSF). Imediatamente uma série de pessoas passaram a colaborar com o desenvolvimento de programas de código aberto usando as grandes possibilidades de compartilhamento e colaboração que as redes informacionais permitem. A FSF queria fazer um sistema operacional livre que fosse baseado no Unix, um sistema operacional que tinha o código aberto, mas era proprietário. Em 1992, o estudante de matemática finlandes chamado Linus Torvalds juntou os vários esforços colaborativos e usando o compilador GCC, criado por Stallman, lançou a primeira versão do LINUX.
A partir disso, a comunidade cresceu velozmente no planeta. Vários outros softwares foram criados com base na prática colaborativa. Um dos sites que reunem projetos de software livre é o www.sourceforge.net . Nele atualmente temos mais de 125 mil projetos de código aberto e mais de 1 milhão e 300 mil colaboradores. Muitos desenvolvedores são barsileiros. O Brasil teve uma das primeiras distribuições LINUX comerciais chamada Conectiva. Uma empresa de Campinas, a INSIGNE já vendeu mais de 250 mil computadores com sua versão Linux, o Linux Insigne. Um último exemplo, até o Anima Mundi utiliza software livre para disseminar suas animações.
2) Por que o Movimento Software Livre cresce tanto em nosso país? Como funciona a Rede Livre?
O Brasil tem um enorme talento para o desenvolvimento d esoftware. Ocorre que no mundo proprietário, os brasileiros são meros arrastadores de ícones. No mundo do software livre, podemos desenvolver toda nossa potencialidade. Quando jovens com vocação para a programação descobrem o software livre, eles aderem e passam a colaborar com o desenvolvimento dos softwares que utilizam.
No início do governo Lula, o grande trabalho de disseminar a idéia do software livre pelo país e quebrar a reserva de mercado existente para produtos de uma única empresa monopolista norte-amnericana incentivou fortemente a mobilização colaborativa em torno do software livre no Brasil.
A Rede Livre é uma ONG nova que trabalha para formar jovens que possam prestar serviços de suporte aos usuários residenciais. O jovem carente ganha um curso técnico em software livre e se torna apto a migrar os computadores das pessoas e a mantê-los funcionando bem. A Rede Livre quer montar uma opção para os cidadãos que não querem mais usar softwares piratas ou inseguros, como é o caso do software proprietário mais comum. A Rede Livre manterá um site onde as pessoas poderão achar o contato dos jovens e poderão contratá-los para dar suporte de informática livre em sues residencias.
3) A utilização do software livre alcança quais outros espaços além, claro, da informática?
A idéia da colaboração avança para todas as áreas do conhecimento e, com o creative commons, atinge também a produção cultural, música, literatura, cinema, artes, fotografia, etc. Temos até a free beer, ou seja, uma cerveja livre, onde as pessoas podem ajudar a melhorar a sua receita e compratilhar as melhorias pela Internet. Temos a produçãode notícias colaborativa sobre a cultura brasileira no site do www.overmundo.org.br . Temos a grande wikipedia, a maior enciclopédia do planeta.
4) As pessoas em geral têm receio de trabalharem com software livre? Sim, não e porquê.
As pessoas, em geral, têm medo daquilo que não conhecem. Todavia, existe uma campanha falaciosa promovida pelo monopólio de software proprietário para tentar manter sua condição de monopólio e continuar extraindo riquezas dos paíse em desenvolvimento que acabam pagando milhões de dólares em royalties pelo uso de licenças de propriedade de software.
A maior dificuldade é que o modelo proprietário de software procura aprisionar os seus usuários, criar softwares que não aceitam formatos de outras empresas, disseminar o máximo de dificuldades possíveis para evitar que o cidadão mude de solução, tenha alternativas e ganhe liberdade. Por isso, que os programas de inclusão digital com software livre dão muito certo. Nas áreas sem herança de software proprietário, as pessoas aprendem software livre e quando acabam conhecendo o software proprietário passam a ver a superioridade do modelo livre. Como aprenderam as funcionalidades dos programas, sem seram bitoladas e adestradas em determinados ícones, elas acabam sendo pessoas que adquirem maior desenvoltura no uso da informática.
5) Por que você está com tudo isso?
Não sei se entendi a pergunta.
Defendo o software livre porque defendo que o conhecimento não é propriedade de ninguém. Se ele pertence a alguém, pertence a humanidade. Acho que compartilhar o conhecimento gera também a redistribuição dos fluxos de riqueza e de poder, principalmente em uma sociedade baseada na informação.
Subscribe to:
Posts (Atom)