|
Por Eduardo Villanueva
Número 42
Commons
Si bien la Internet
es una tecnología difundida, no es necesariamente una tecnología
conocida, en el sentido de entenderse cómo hace lo que hace1.
Uno de estos aspectos tiene que ver con los principios de “inteligencia
de red, que en el caso de la Internet reside en los extremos, como
se establece al hablar de una red extremo-a-extremo (Villanueva
2004). Pero además de una cuestión técnica,
es precisamente esta naturaleza extremo-a-extremo lo que hace que
la Internet sea institucionalmente distinta a otras formas de telecomunicaciones.
Si en una red de telecomunicaciones
convencional, como la telefónica, el control reside en el
centro de la red porque el diseño de la red hace que así
sea, en la Internet el control, si cabe el término, reside
en el extremo. Las consecuencias de esta diferencia fundamental
incluyen pero no se limitan a que en la Internet se tenga que hacer
las cosas por consenso, porque no se puede hacer cambios en un solo
lugar que afecten rápidamente a todos; que la Internet necesite
un alto grado de coordinación técnica para cambiar
aquellas características que no estén funcionando
correctamente o que sean vulnerables, como sucede en la actualidad
con el spam, que no puede ser controlado porque se requeriría
cambios a todo nivel y en todos los extremos para que se tenga éxito;
y no por último menos importante, que una innovación
puede ser implantado en uno de los extremos y expandirse lentamente,
hasta cubrir la Red por completo. La innovación es terreno
abierto a cualquier interesado.
Esta innovación libre, esta
carencia de un centro de control, hacen a la Internet un espacio
común, o commons como lo define Lawrence Lessig
(2001). Un commons es un lugar al que no sólo cualquier
puede entrar, en donde cualquier se puede expresar, sino fundamentalmente
en donde cualquiera puede proponer maneras nuevas de hacer las cosas,
y donde no se puede imponer reglas a la comunidad. Un espacio esencialmente
igualitario y orientado a ser enriquecido no por los grandes logros
individuales, sino por la reunión de los pequeños
logros colectivos que producen resultados de libre acceso.
El sistema de red extremo-a-extremo
que crea el commons hace que no haya dueños de la
Internet, puesto que se la ha diseñado para que no pueda
tenerlos. A su vez, las características técnicas de
la Internet son parte de sus características como polity,
o lugar donde se hace política. Hay sin duda alguna una política
de la Red que sale de esta arquitectura libertaria, y que definida
en el código informático mismo, se convierte en su
gran motor de desarrollo.
Lawrence Lessig, el principal teórico
de la Internet como espacio comunitario, propone interpretar a la
Internet como una nueva manera de expresión para la creatividad
humana, la que encuentra en los commons una forma de trabajar
que es definitiva y cualitativamente superior, porque añade
al espíritu libertario las posibilidades de la tecnología.
Para entender claramente el papel que juega, es necesario reproducir
el modelo de Benkler que Lessig usa como base de su análisis
(Lessig 2001: 25); en este modelo, las capas corresponden al contenido
como expresión de ideas, al código como mecanismo
de transmisión en el sentido amplio, incluyendo al idioma
pero también al mecanismo técnico, y a la capa física
como el medio de transmisión: un espacio abierto, una red
específica, un edificio. Controlado quiere decir que alguien
puede tomar decisiones sobre lo que se puede o no hacer con una
de las capas, mientras que libre implica que no existe forma de
limitar el uso de estas capas, aun cuando se deba pagar por usarlas.
Capas |
Ágora pública |
Auditorio |
Sistema telefónico |
TV cable |
Internet |
Contenido |
Libre |
Libre |
Libre |
Controlado |
Libre y controlado |
Código |
Libre |
Libre |
Controlado |
Controlado |
Libre |
Física |
Libre |
Controlado |
Controlado |
Controlado |
Controlado |
Mientras que en sus formas puras,
el espacio público es público porque el libre acceso
no se agota en la entrada al sitio, sino porque podemos expresarnos
libremente mediante un sistema de comunicación de libre disposición
—es decir nuestro idioma—, un auditorio, que por definición
es un lugar cerrado y por lo tanto, bajo control de alguien, ya
requiere una negociación para lograr el acceso. El sistema
telefónico es un medio técnico para la comunicación
con el que podemos decir lo que queramos, pero ni la red telefónica,
propiedad de un operador, ni el sistema de comunicación,
propiedad por lo general del mismo operador aunque interoperativo
con otras redes telefónicas, están a nuestra disposición
sin que tengamos que acatar algún sistema de reglas.
La televisión por cable,
en tanto medio masivo, implica control a todo nivel: los medios
físicos de transmisión son propiedad de un operador
que nos obliga a pagar por el acceso; los mecanismos de codificación
también son privados y de pago; finalmente, nuestro control
sobre el contenido se reduce a cambiar de canal, o cuando y donde
es posible, cambiar de operador.
En la Internet, la situación
es distinta: mientras que la red física de la que dependemos
para conectarnos es totalmente privada, y el acceso a la misma pasa
por aceptar las condiciones que ponga un operador dado, el contenido
puede ser libre o propiedad de alguien; pero el código —el
mecanismo por el cual se lleva a cabo la comunicación—
es libre. La base de la Internet reside precisamente en la libre
disponibilidad de este código. La razón de la existencia
y la viabilidad futura del commons que es la Internet dependen
de la libertad de acceso al código. Es el código de
la Internet lo que permite esta combinación inusual de contenido
controlado y libre al mismo tiempo, y lo que hace tan atractiva
a la Red.
Pero el código no se limita
a cuestiones informáticas, sino que también incluye
a las reglas de juego a partir de las cuales se desarrollan las
herramientas informáticas. En el caso de servicios como Napster,
Kazaa o cualquier otro servicio de intercambio de archivos, la tecnología
permite un sistema de libre acceso a contenidos digitalizados, a
través del cual se obtiene acceso sin previo pago y sin control
a archivos que antes estaban no sólo sujetos a pago, sino
sobre todo a control de los derechohabientes; así pues, si
alguien deseaba una canción de los años cuarenta,
o esperaba a que la disquera la publicara o simplemente no tenía
acceso a ella. Gracias a Napster, de pronto no sólo el pago
sino el control sobre la edición o no de semejante canción
desaparecen del escenario, de forma que las empresas de contenidos
no sólo pierden el pago por un disco, sino el manejo completo
de todo el armazón comercial sobre el que se basa la industria.
Esta situación se crea a
partir de la aparición de una innovación llamada computación
Par a Par, o P2P. El P2P aprovecha la Internet de maneras inusuales.
Diseñada como una red en donde existen computadoras que dan
información, y otras computadoras, distintas a las primeras,
que reciben información, la arquitectura de la Red cae bajo
el concepto general de cliente / servidor, en el que las partes
conocen sus funciones y cada una permite hacer a la otra lo que
le corresponde. De acuerdo a este diseño, las personas que
se conectan a la Internet para acceder a sus servicios, como usuarios
de los mismos, no ponen información, archivos o datos a disposición
de los demás; por su parte, las computadoras que ponen información,
archivos o datos a disposición de los usuarios de la Internet
no están pensadas para buscar información. La figura
siguiente ilustra mejor el modelo cliente / servidor.
El P2P innova radicalmente al proponer
un modelo en el que todas las computadoras pueden dar información
al mismo tiempo que la buscan. Mediante recursos técnicos
que cambian la relación entre los servidores y las computadoras
que solicitan información, el P2P permite que cada computadora
pueda dar a conocer qué contenidos específicos, de
un formato o ubicación determinada por el usuario, se encuentran
en la computadora, para ponerlos a disposición de los demás
navegantes de la Internet. Al hacerlo, las porciones específicamente
designadas para ese fin son tratadas como “servidores”,
desde el punto de vista de los usuarios que se conectan para buscar
información.
Creado a partir del trabajo individual
de Shawn Fanning con el propósito explícito de intercambiar
archivos MP3 de canciones, el P2P tuvo a Napster como primera encarnación.
Originalmente un sistema relativamente torpe, limitado al formato
MP3, ahora el P2P es la base de Kazaa, los bitTorrents o la familia
eDonkey, con otros servicios similares que permiten obtener, de
otros usuarios, archivos de todo tipo, los que “bajan”
o se copian en la computadora solicitante de manera gradual. Películas
enteras, por ejemplo. La figura siguiente esquematiza lo que el
P2P ofrece.
Así visto, el P2P cambia
el mecanismo de control de acceso a los contenidos, que ya no necesitan
estar en un servidor específico sino que pueden hallarse
en cualquier computadora de la Red. Para el caso de la música
el P2P alteró no sólo la manera de acceder a la información,
sino incluso toda la industria de la música grabada, principalmente
porque cambio las premisas generales de control de contenidos.
El resultado es una situación
en donde las alternativas que buscan reforzar y explotar el espacio
común que es la Internet se ven amenazadas por la intención
de los derechohabientes para detener el avance en función
de sus intereses específicos. No hay relación directa
entre un supuesto “espíritu libertario” y el
bando pro-código libre; varios intentos comerciales basados
en código de libre acceso y liberador de contenidos han fracasado
precisamente porque los derechohabientes han preferido el modelo
comercial a cualquier innovación que ponga en el más
mínimo peligro sus intereses; lo que se tiene que considerar
es el prejuicio a la sociedad que produce esta actitud.
Siguiendo a Lessig, esta tensión
puede leerse de dos formas, complementarias entre sí: se
trata tanto de la tensión entre la tecnología pro-commons
y el modelo de propiedad favorable al control de los derechohabientes,
en donde una va en direcciones mucho más audaces que la otra;
y es la tensión entre formas nuevas de hacer negocios y de
garantizar la libre expresión, y las formas antiguas, lo
que en realidad refleja la tensión entre los que obtienen
beneficios del status quo actual y los que buscarían romperlo
o alterarlo, y donde el control es un instrumento de poder. Por
el momento, se optará por la primera, puesto que la segunda
toma otras formas que vale la pena estudiar más allá
del modelo de Lessig.
Esta tensión, además,
expresa un conflicto entre dos vectores que se oponen entre sí.
El problema de esta situación es que para que la visión
del commons sea la que prevalezca, tiene que predominar
el concepto de uso justo frente a la protección a toda costa
del interés privado. Y el commons está perdiendo.
Bajo esta idea, cualquier contenido
protegido por derechos de autor puede ser usado sin permiso del
poseedor de los derechos siempre y cuando sea para uso personal,
y sin posible explotación comercial. El uso justo permite
que una persona fotocopie partes de un libro, lo cite y eventualmente
lo use como base para desarrollar argumentaciones académicas;
también permite copias de un disco en un casete. La clave
reside en el uso personal.
Como uso personal también
se entendía, en los años iniciales de la expansión
de la Red, el poner en un servidor de FTP una lista de éxitos
compilada por una revista de los EEUUAA, o los sonidos de un episodio
de Star Trek; a fin de cuentas, no había intención
comercial, ni tampoco se entendía que con esto el dueño
del producto original pudiese ser perjudicado. Los dos ejemplos
mencionados son reales, experimentados por el autor de este trabajo
hacia mediados de 1994, y rápidamente puestos fuera de la
ley a través de acciones legales y retirados de la red por
los propietarios de los derechos. Esto no quiere decir que no se
pudiesen conseguir, así como otros contenidos; lo que quedaba
claro es que la intención de los usuarios, que no pretendían
para nada trasgredir derechos y sí, más bien, facilitar
el acceso a información que en principio no era de consulta
fácil por todos los conectados a la Red, era interpretada
de manera muy distinta por los propietarios de la información2.
La cuestión se mantuvo en
una tregua similar a la que gobierna el software ilegal en manos
de personas naturales, situación que por lo general no preocupa
significativamente a los productores, los que gastan energías
y recursos en detener el uso de software sin licencia por parte
de personas jurídicas. Sin embargo, la popularización
de la Red se unió a Napster para cambiar la situación.
Conforme el aumento de usuarios provocó que las trasgresiones
a los derechoshabientes aumentaran, la aparición de Napster
convirtió el panorama de una situación incómoda
pero manejable a una amenaza completa e integral a la estabilidad
y futuro del negocio de la música.
Esto se explica porque Napster,
al poner en manos de cualquier persona, sin costo significativo
y sin control alguno por parte de los derechohabientes, cantidades
ingentes de contenido musical, cuestionaba la viabilidad de la estructura
misma del negocio, puesto que lo que sustenta al oligopolio mundial
de la música, basado en cadenas de promoción y distribución
muy ensambladas, amarradas además con los propietarios de
radios privadas y promotores de conciertos en el mundo desarrollado,
y manejado por apenas cinco empresas que controlan el 80% de las
ventas a nivel mundial , es precisamente la capacidad de decidir
qué, cuando y cómo se vende música en el mundo.
Napster representaba algo más grave que la pérdida
de ingresos por no pago de derechos de autor: significaba el fin
del control sobre la música comercial ejercido por estas
empresas. Por extensión, y tomando en cuenta que los conglomerados
del entretenimiento no se limitan a la música, el debate
se orienta hacia la protección de esos negocios in toto,
obviando sutilezas que podrían servir para permitir a algunos
hacer las cosas con más libertad.
Se puede criticar la proporción
de la respuesta, así como la falta de coherencia entre las
supuestas causas de estos reclamos (los derechos de los músicos)
y la realidad de la estructura de ganancias y su repartición
a los músicos; también se puede poner en debate la
supuesta relación causa-efecto entre la existencia de Napster
y sus sucesores y la caída de ventas que experimenta la industria
musical. Pero lo que no se puede cuestionar es que, si por un lado
Napster ofreció una nueva visión de cómo trasladar
contenidos prescindiendo de las cadenas tradicionales de distribución,
por otro la industria demostró su increíble capacidad
de respuesta legal, mas no tecnológica o comercial.
Tecnológicamente, la industria
musical no logró crear alternativa alguna para bloquear o
proteger sus contenidos que no haya sido rápidamente superada
por los especialistas o los hackers. Pero legalmente y
en el territorio de los Estados Unidos, y arrastrando a través
de convenios internacionales y acuerdos comerciales a Europa y el
resto del mundo desarrollado, la industria ha logrado que se impida
el funcionamiento a Napster, ha conseguido, al menos a nivel de
proyecto de ley, un permiso para hackear las computadoras
de los usuarios de servicios sucesores de Napster e impedirles continuar
bajando archivos4, y esta trabajando
para lograr nuevas leyes, que impidan incluso el establecimiento
de relaciones comerciales con países en donde no se considere
una ofensa penal el uso de software para acceder a contenidos protegidos
por derechos de autor; previamente, y en trabajo conjunto con toda
la industria de los contenidos, se ha logrado extensiones continuas
de los plazos de duración de los derechos de autor, extendiéndolos
setenta años después de la muerte del autor o a noventa
y cinco años después de su creación si se trata
de propiedad de personas jurídicas.
Finalmente, se está proponiendo
que no se pueda construir aparato alguno o introducir al mercado
tecnología alguna que no cuente con recursos diseñados
en el hardware mismo para impedir el acceso a materiales no autorizados,
a través de un sistema de marcas de agua digital que requiera
una declaración ante facto del interesado en reproducir
información digital de que cuenta con los permisos. Todas
estas acciones encuentran eco rápido en la Organización
Mundial de la Propiedad Intelectual, y son integradas a los acuerdos
internacionales. Todo esto para impedir que la llamada Darknet,
o red oscura, creada a través de los sistemas de intercambio,
perdure; pero muchos opinan (Biddle et al., 2002) que es imposible
detener a la Darknet, más allá que sus encarnaciones
específicas, como Napster o AudioGalaxy, puedan ser desbaratadas.
El problema principal de esta andanada
legal en los EEUUAA, que no se limita a la música sino que
incluye a todos los ramos de la industria del entretenimiento (Grimmelmann
2001) es que amenaza con consagrar mundialmente la prioridad que
tienen los propietarios corporativos de derechos frente a los usuarios
que solían estar amparados por doctrinas de uso justo que
ya no se aceptan en los mismos términos; este resultado amenaza
una de las virtudes principales que la Internet parecía ofrecer
a sus usuarios, la que era la flexibilidad y facilidad para intercambiar
información sin las limitaciones propias de la materialidad
de los formatos previamente existentes. Incluso en el caso relativamente
trivial de información supuestamente de libre acceso, puede
producirse intentos de bloquear la reproducción o difusión
sin permiso previo y explícito del derechohabiente: en Inglaterra,
la publicación de estadísticas de los partidos de
la Liga Premier de fútbol exige permiso previo, lo que incluso
llevo a la amenaza de un boicot por parte de los periodistas deportivos.
Las consecuencias de semejante razonamiento
para la expresión individual no se limitarán a impedir
bajar una película entera por la Internet: también
implican que la propiedad intelectual, entendida en su sentido más
conveniente para los derecho habientes, será la que mande
sobre las intenciones personales. Las estructuras tradicionales
de creación, distribución y uso del conocimiento quedan
así quebradas, porque es imposible esperar que el consumo
de información y el uso de sistemas de comunicación
puedan sostenerse cuando los precios suben a cambio de servicios
más restrictivos y menos flexibles. El control corporativo
ataca el commons y complica la viabilidad de las industrias
de la información, entre las que se incluye a la actividad
académica.
Este razonamiento puede parecer
excesivo y ciertamente alejado de la experiencia cotidiana de nuestras
realidades latinoamericanas; pero al mismo tiempo, la interconexión
permanente que ofrece la tecnología encarnada en la Internet
viene acompañada por una creciente interconexión institucional
(Mattelart 1998: 94-96). Los acuerdos y compromisos que los Estados
se ven obligados a firmar para participar en acuerdos internacionales
de comercio y finanzas demandan a su vez el aceptar las reglas de
juego: estas son cada vez más directas, y pasan por el control
que los grandes conglomerados del entretenimiento y la información
ofrecen a nivel global. Nuestras instituciones se adecuan al nuevo
marco tan rápido como nuestras prácticas lo hacen
con la tecnología. Quizá la diferencia radique en
que nuestras prácticas gocen de más autonomía
que nuestras instituciones, gracias a la precariedad institucional
de nuestros países. Como consuelo, sirve de muy poco.
Una respuesta: wikis
Parte del encanto
de la Internet fue y será el que no es un medio masivo. La
Red puede servir tan fácilmente para crear contenidos como
para obtenerlos; basta un poco de entrenamiento en el lenguaje de
la World Wide Web, el HTML, para lograrlo. Usando este criterio,
y con herramientas muy variadas, miles de personas han convertido
la Internet en su propio espacio de expresión, en su rincón
privado desde el cual hablar al mundo. Por medio de ciertas herramientas
y con ciertos estilos, se produce una apropiación personal
de la Internet. Esta apropiación permite mantener mucho del
carácter original de la Red, en que los usuarios se sentían
sus dueños, por ser una comunidad relativamente pequeña,
donde se reconocía a los interesados por su curiosidad y
a los expertos por su generosidad. Con los años, la Red fue
convertida en un espacio demasiado amplio y difuso como para tener
un único carácter, pero siempre ha mantenido espacios
más personales.
Esta apropiación de la Internet
no ha sido habitualmente considerada en las interpretaciones habituales
sobre los cambios recientes que la tecnología y los nuevos
medios nos ofrecen como heraldos. Concepciones de la sociedad de
la información comunes a los ejercicios burocráticos
estatales y multilaterales insisten en la conectividad, en el comercio
electrónico o en el gobierno y servicios electrónicos,
pero el potencial para ampliar el debate público y aportar
a una discusión más alturada, que puede provenir de
la participación en la construcción de contenidos
de la Red, no suele ser puesta en primer plano, ni mucho menos.
Es la iniciativa individual, expresada
a través de herramientas o proyectos menores, la que hace
tan interesante, tan vital a la Internet. El commons de Lessig se
expresa en los proyectos de los hackers que son capaces de construir
un navegador ideal colectivamente, en la actividad de los bloggers,
o en los pequeños espacios liberados en donde se discute,
se colabora y se re-imagina la Red. Verdaderas pequeñas sociedad
de la información, los rincones no comerciales, los espacios
liberados de la Red pueden ser caóticos y llenos de ruido,
difíciles de aprehender y de convertir en negocio, pero nos
muestran el futuro mejor que cualquier mega proyecto financiado
por grandes empresas o respaldado por presupuestos gubernamentales.
Sin duda, los weblogs son un ejemplo
básico, y al mismo tiempo muy individualista, de esta tendencia.
Si bien la posibilidad de expresión que el weblog ofrece
es significativa, y la existencia de weblogs útiles y relevantes
sirve como demostración de la pertinencia del concepto para
hablar de la web colaborativa, lo cierto es que el grueso de los
weblogs son esencialmente formas individualistas de comunicación.
Pero existen alternativas mucho más interesantes que revisar,
como los Wikis.
Wiki wiki quiere decir
“rápido” en hawaiiano. Es también el nombre
de un método sencillo para hacer páginas web al vuelo,
creado por Ward Cunningham <http://www.c2.com/cgi/wiki?WikiWikiWeb>
y puesto a disposición de la comunidad de usuarios de la
Internet. Definida como una aplicación de informática
colaborativa, o software social, la idea de un wiki es crear una
página que no sólo pueda ser leída por cualquiera,
sino que también pueda ser editada por cualquiera.
Suena completamente contra intuitivo
crear una página que cualquiera pueda modificar, pero la
idea es en realidad muy útil como piedra angular de una Web
que en vez de ser un espacio controlado por autores específicos
sirva como alternativa de creación colectiva. Un wiki sirve
como mecanismo para que muchas personas interactúen de manera
fluida y transparente, sin intervención alguna de un editor,
permitiendo elaborar contenidos muy sofisticados. Como dice Cunningham
en su FAQ <http://www.c2.com/cgi/wiki?WhyWikiWorks>:
todos comparten sentido de responsabilidad porque todos pueden contribuir,
por lo que se produce un fuerte compromiso de la WikiCommunity para
mantener los wikis limpiecitos, dado que todos los usan y por ello
todos quieren que se pueda usar. Finalmente: “also it's fun
to participate, and people play nice when the game is fun”.
La manera más simple de entender
los wikis es visitar la Wikipedia, una enciclopedia colaborativa
basada en un enorme wiki, que permite a los lectores ser también
redactores de los artículos, y donde además encontrarán
una explicación bastante clara de qué es un wiki.
Esta idea cooperativa facilita contar con mucha más gente
de la que normalmente podría involucrarse en un proyecto
formal de redacción de una enciclopedia, y si bien puede
ser una pequeña invitación al caos también
demuestra que, si se actúa de buena fe, se puede efectivamente
participar de una pequeña sociedad de la información
global como creador, desde cualquier lugar del mundo. La Wikipedia
<http://es.wikipedia.org>
para la versión en español) no es perfecta, pero es
un excelente primer paso, en muchos idiomas, hacia una especie de
bibliotheca universalis en donde todo el conocimiento humano esté
representado.
¿Son los distintos wikis
un ejemplo de commons? Al menos tienen la virtud de permitir
al usuario común el participar no sólo de la distribución
sino también de la creación de conocimiento, en una
escala mucho más asequible que aquella de un proyecto como
el Firefox, el nuevo navegador de Mozilla. Es difícil que
un usuario del común pueda hacer algo más que usar
un producto como Firefox, pero sí puede aportar, con un mínimo
de esfuerzo y mucho de buena voluntad, a un wiki como la wikipedia.
Pero lo que haría interesante
a los wikis es que extienden el concepto de commons más
allá del libre acceso para proponer una alternativa mucho
más sistemática de participación. El éxito
de un proyecto como la wikipedia requiere que además de la
cesión al espacio colectivo de conocimiento de los aportes
que se puedan hacer, también se ofrezca trabajo, como lo
requieren ya los diversos proyectos colaborativos de software (GNU,
Linux, Mozilla, Public Library of Science en cierta medida). A esto
debe sumarse además que el wiki requiere reconocerse par
de muchas personas con las que la colaboración no puede tomar
las formas concretas de la producción de software; el wiki
permite a cualquiera intervenir sobre el trabajo realizado de una
manera mucho más directa, e inherentemente estructural, que
en los casos anteriores.
El control, que aún a pesar
de la naturaleza abierta, existe en el commons tipo Mozilla,
no tiene sentido en el wiki; su existencia presupone que abandonemos
la noción misma de que alguien tiene más autoridad
que otro para decidir qué es lo correcto, al menos autoridad
asignada de antemano. Lo que tenemos es una apuesta por un sistema
homeostático, tendiente al equilibrio, en el que el reconocimiento
a los pares más capacitados para opinar sea el resultado
post facto de una comunidad que entrega autoridad en los hechos.
Es la lógica meritocrática
aplicada más allá de los ámbitos estructurados
tradicionales, lo que rige a un wiki. Si aceptamos los testimonios
del creador de la wikipedia, la tendencia homeostática de
este espacio comunitario es claramente constatable en la manera
como los distintos participantes han aceptado, de buena fe y por
pura buena voluntad, tomar los roles que en cada caso sus propios
recursos y medios les han permitido tomar. Más allá
de intentos específicos de agresión a la wikipedia,
por vándalos de distinto cuño, el grueso del trabajo
es hecho por un conjunto de especialistas que se han ganado la confianza
del grupo en los hechos, pero que no han reclamado para sí
más reconocimiento que el que sus opiniones sean respetadas
por sus pares.
El pingüino de Coase
Una de las explicaciones más
interesantes sobre el éxito de la producción de software
a través de un commons ha sido ofrecida por Yochai
Benkler (2002). Esta explicación plantea una relectura de
los principios de la organización de la producción,
a la luz de las limitaciones de las firmas u empresas para manejar
proyectos complejos y de retornos lentos, como lo es la producción
de software sofisticado. Resumiendo un argumento muy amplio, Benkler
propone que la producción de software libre —al estilo
de Linux o Mozilla— sirve como demostración de la aparición
de un tercer modelo de organización de producción.
Los modelos tradicionales de producción,
según la clásica teoría de costos de transacción
de las firmas de Ronald Coase, escrita en 1937 y usada como base
de la reflexión de Benkler, son las organizaciones, que cuentan
con empleados que trabajan por una remuneración y que venden
sus capacidades, entregando el resultado de su creatividad para
su explotación por los capitalistas, y los individuos, que
actúan para su propio beneficio en el mercado. En el primer
caso, la dirección de las acciones de los empleados recae
en los gerentes; en el segundo, en la interpretación de las
señales de precios que los individuos hacen como actores
en un mercado.
En el modelo que Benkler llama “producción
de pares orientada al commons”, grupos de individuos
se comprometen en colaborar en proyectos de gran escala siguiendo
un conjunto muy variado de motivaciones sociales, sin considerar
la ganancia a obtener o las instrucciones de superiores. La factibilidad
de este modelo depende de la abundante disponibilidad de recursos
intelectuales y su acceso también abundante a recursos de
capital, como lo son las redes de comunicación y las computadoras
conectadas a través de ellas. La Internet actúa como
facilitador técnico de la producción, especialmente
si se considera que el costo de acceso es casi irrelevante para
aquellos que más probablemente trabajen en estos proyectos,
miembros de comunidades académicas o de investigación,
los que además también estarán más interesados
en el tipo de “remuneración” que ofrece este
modelo.
El ejemplo “canónico”
es Linux (cuyo símbolo es un pingüino), donde lo que
se necesitó para lograr el producto en uso fue tanto la disponibilidad
de recursos de capital como de recursos humanos con propósitos
no mercantiles, pero sí con intenciones de lograr prestigio
y reconocimiento por los pares y oportunidades económicas
ulteriores a partir de este prestigio y reconocimiento. Algo parecido
podría estar sucediendo con el caso específico de
la Wikipedia, sus publicaciones hermanas agrupadas en wikimedia.org,
y con otros ejercicios de producción de contenido intelectual
por wikis. Los profesionales académicos e investigadores
son precisamente los más interesados en lograr prestigio
antes que remuneración directa, como estudios clásicos
(Merton 1988, por ejemplo) lo demuestran.
Si bien el argumento de Benkler
se refiere a la lógica de producción de software,
la estructura comunitaria de los wikis también termina comportándose
de maneras similares, puesto que la tendencia homeostática
ya mencionada resulta del establecimiento de jerarquías no
coercitivas, sino meritocráticas; el conocimiento creado,
que toma una forma distinta de aquel consagrado en productos como
el software libre pero que igualmente parte de las mismas reglas
y acepta los principios de copyleft, entre otros, es puesto
a disposición de comunidades más amplias sólo
tras haber superado la barrera de aceptación social que la
comunidad de cada wiki parece interesada en crear, siempre de forma
implícita. La racionalidad económica del tercer modelo
de Benkler se impone porque ofrece más retribución
que el intentar funcionar en el mercado, donde no habría
muchas opciones, o en empresas, que están de retirada de
muchos mercados de producción de conocimiento por los problemas
creados por tecnologías como la Web o el P2P.
Estaríamos pues, ante la
aparición de un modelo nuevo de creación intelectual
que ofrece un conjunto elevado de ventajas para los intelectuales
y creadores de países como los que conforman América
Latina. Dado que la dirección de los proyectos resulta de
una iniciativa colectiva, fácil de identificar y de motivar,
y que la participación en los proyectos no requiere de condiciones
de acceso a mercados que favorecen a los profesionales reconocidos
formalmente por las economías desarrolladas, la
creatividad puede expresarse con más libertad. Dado que los
productos finales no están sometidos a la racionalidad mercantil
de la economía global, la posibilidad de recibir los beneficios
del acceso aumenta y quizá puede compensar las limitaciones
de acceso al conocimiento creado por medios convencionales en el
mercado global de la información, tal como se ha detallado
antes.
Hay que decirlo: tal vez estamos
ante un espejismo. Quizá la racionalidad económica
capitalista tradicional se imponga al largo plazo5,
y la idea de un tercer modelo tenga tanta relevancia como de un
tercer mundo. Pero mientras tanto, la creatividad expresada en el
commons y su distribución abierta, su tendencia
a la homeostasis en la asignación de recursos y de proyectos,
sean una oportunidad para crear y alimentarse de la creación.
Los wikis pueden servir como ejemplo de una opción transformativa
de la producción intelectual que muestra más que un
producción, una opción de organización intelectual
que permite volver a entusiasmarse con el futuro de la sociedad
en red.
Lima, noviembre del
2004
Notas:
*Partes
de este artículo serán publicadas en Senderos
que se bifurcan: dilemas y retos de la sociedad de la información,
Lima: Pontificia Universidad Católica del Perú, 2005.
1 Aunque las explicaciones técnicas
no son necesarias para entender a plenitud las virtudes de la Red,
el detalle de la complejidad técnica requiere una revisión
bibliográfica adecuada, usando manuales recientes. Visitar
los sitios web oficiales <http://www.icann.org>,<http://www.w3c.org>,
<http://www.ietf.org>
no es necesariamente garantía de comprensión, y los
Request for Comments, documentos oficiales de trabajo de la Internet,
requieren cierto conocimiento previo.
2 En realidad, la información
no tiene propietarios en el sentido que una cosa puede tenerlos.
Las ideas son comunes y no se pueden proteger, y su expresión
concreta puede ser protegida por ley para garantizar al creador
un beneficio, con cargo a que, en un futuro mediato por lo general
posterior a la muerte del creador, estas encarnaciones de las ideas
pasen al dominio público, es decir a ser de libre disposición
por cualquier interesado ( Lessig 2001: capítulo 4.)
3 Sony Columbia, Vivendi Universal,
WEA (parte de Time Warner), EMI y Bertelsmann / BMG. El 15% restante
lo manejan disqueras independientes.
4 El proyecto se llama "Peer-to-Peer
piracy prevention act" y fue presentado por el representante
Howard Berman, demócrata de California. Disponible en <http://www.house.gov/berman/pr072502.htm>.
Posteriormente a este proyecto se han presentado otros intentos
de regular y bloquear el acceso a información digital por
medios no autorizados por los derecho habientes.
5 Aunque también hay que
recordar que en el largo plazo todos estaremos muertos, Keynes dixit.
Referencias:
Benkler, Yochai (2002)
"Coase’s penguin, or, Linux and the nature of the firm".
En: Yale law journal, 112 (3), dic 2002, pp.369-446.
Biddle, Peter et al. (2002)
The Darknet and the Future of Content Distribution / Peter
Biddle, Paul England, Marcus Peinado, and Bryan Willman, Microsoft
Corporation. Disponible en: <http://www.dklevine.com/archive/darknet.pdf,
entre otros sitios>.
Grimmelmann, James (2001)
"Peer-to-peer terrorism: bad news for the Napster wars - the
harder you fight against decentralized networks, the more enemies
you create". En: Salon, <http://dir.salon.com/tech/feature/2001/09/26/osama_bin_napster/index.html>
Lessig, Lawrence (2001)
The future of ideas: the fate of the commons in a connected
world. New York: Random House.
Mattelart, Armand (1998)
La mundialización de la comunicación. Barcelona:
Paidós.
Merton, Robert K (1988)
The Matthew effect, II. En: On social structure and science.
Chicago: University of Chicago press, 1996, pp. 318-336.
Villanueva, Eduardo (2004)
"Internet, el espacio que se debe defender: una consideracion
sobre su centralidad para el desarrollo de la comunicación".
En: Signo y pensamiento, 23 (44), ene-jun. 2004, 73-83.
Eduardo
Villanueva
Departamento de Comunicaciones, Pontificia Universidad
Católica del Perú, |