Archivo del sitio

La Administración digital en la era de la economía del dato

(Puedes leer también este artículo en la revista MuyComputerPro así como otros contenidos muy interesantes sobre tecnología)

La información es poder y, hoy en día, está en manos de los ciudadanos. En efecto, la revolución informática de los últimos cincuenta años y, en particular, de las últimas décadas ha supuesto un antes y un después en el acceso a la información. Cuando antaño solo unos pocos eran valedores de poder acceder a la educación, actualmente, internet pone al alcance de un clic casi cualquier fuente de información. En este mundo globalizado caracterizado por una estructura reticular se está produciendo un fenómeno de democratización de la información pasándose de la posesión del dato al acceso al servicio, como destaca Jeremy Rifkin en su obra “La era del acceso”. Este fenómeno está teniendo consecuencias directas en la economía. Yochai Benckler, en su obra la “La riqueza de las redes” también menciona cómo la economía está volcándose hacia una concepción muy diferente a la manera tradicional. Las redes y la explotación de los datos sugieren una novedosa manera de generar riqueza. Este proceso está provocando que las Administraciones se estén modernizando tanto organizativa como normativamente. La era del Big Data, el Internet de las Cosas y el desarrollo del llamado Data Science obliga al desarrollo de unas nuevas políticas públicas que se adapten al nuevo orden mundial, eminentemente tecnológico.

El presente texto se dividirá en tres bloques. El primero versará sobre el contexto global y económico en el que en engloba la nueva sociedad de la información. El segundo bloque ahondará en lo anterior detallando cuáles son algunos de los retos y oportunidades más destacables. Finalmente, el tercer bloque continuará el hilo conductor mediante la expresión de las políticas públicas en España y en la UE más representativas.

Se comienza, pues, el primer bloque, la economía de los datos.  Como se ha introducido, la globalización de marcada tendencia abierta, a pesar de tener detractores y seguidores (mundialistas) ofrece una nueva manera de organizar los datos y de conectarlos. Algunos autores, como Santiago Niño Becerra, incluso habla de una sociedad Post-global en la que ya se da por hecho la fase inicial de conectividad. Las Administraciones, en su afán de ofrecer servicios de máxima calidad han ido evolucionando desde la Burocracia, pasando por la Nueva gestión pública, hasta llegar a la Gobernanza al incorporar las TIC en un seno. Una de las corrientes más novedosas es la tendencia hacia un gobierno abierto donde los datos estén al alcance de los ciudadanos. Esto tiene dos patas fundamentales: la transparencia y, a buen seguro, la economía a través del principio de eficiencia.

La Ley 19/2013 de transparencia, acceso a la información y buen gobierno, supone una revolución en tanto que entiende que los datos son propiedad del ciudadano y no de las Administraciones. En este sentido, se desarrolla el portal de la Transparencia donde se publicita la información categorizada en tres patas: organizativa, jurídica y económica. Asimismo, se facilita el acceso a los datos el cual puede ser parcial o total sin mayor restricción que información sensible (defensa, seguridad nacional, etc.). La OTAI, oficina de Transparencia y Acceso a la Información, es la responsable del portal de transparencia. El Consejo de Buen Gobierno y Transparencia mediante su estatuto 919/2014 persigue la buena ejecución de esta norma. Otro aspecto del gobierno abierto relacionado íntimamente con la economía de los datos, es sin duda, la Reutilización de la Información del Sector Público. Ciertamente, el proyecto APORTA que desarrolla el portal datos.gob.es pone a disposición de cualquier interesado toda suerte de datos que pueden ser accedidos y explotados para un uso particular. De esta manera, se fomenta el emprendimiento y se facilita la economía de autónomos y empresas con capacidad de almacenar y minar la información mediante, por ejemplo, técnicas de DataWareHouse y Datamining.

Este marco de la economía del dato, en su de su vertiente de gobierno abierto, no está exenta de retos y oportunidades. Se comienza así el segundo bloque. La sociedad del conocimiento en la que nos hallamos ha cambiado sustancialmente la manera en que los ciudadanos se relacionan y consumen información. Según Javier Bustamante, doctor en filosofía por la Universidad Complutense de Madrid, el ciudadano es un prosumidor (una combinación natural entre productor y consumidor de información). Asimismo, vivimos en un entorno en el que los datos se encuentran en el estadio de la Web 2.0 de marcado acento colaboracionista. Wikis, blogs, webs personales, sindicación de contenidos, son algunos ejemplos de cómo los datos y la información se estructura en Internet. En este sentido, la siguiente evolución es la llamada Web 3.0 en la que se pretende ir hacia ontologías de la información más inteligentes. Así por ejemplo, mediante estas técnicas, es más sencillo explotar y particularizar información que pueda ser manipulada por empresas en el desarrollo de sus negocios. Ejemplos típicos son las webs de viajes, hoteles,  etc. donde la economía de las mismas se basa en la explotación y distribución de los datos mediante distintas tecnologías (cookies, etc).

Sin duda alguna, uno de los retos más importantes es que toda la sociedad pueda beneficiarse de esta economía del dato. Para ello, hay que minimizar la brecha digital mediante la alfabetización digital y la inclusión digital. Una mejor usabilidad y accesibilidad ayudarán enormemente a que todos los colectivos puedan acceder a los datos. Por otro lado, esta inmensa fuente de información alojada en Internet adolece de cierta organización y sobrecarga. Sin duda, la objeción de Babel va en esta línea poniendo de relieve la sobrecarga informativa y cognitiva. Es por ello, necesario un enorme esfuerzo en clasificar, metadatar y consensuar unos estándares para poder ofrecer la información.

Las Administraciones no son ajenas a estos retos y oportunidades y, en consecuencia, han ido desarrollando distintas políticas para aunar la sociedad del conocimiento y la tecnología. De esto tratará el tercer bloque.

Desde la Estrategia de Lisboa, pasando por las iniciativas eEurope 2002, 2005, i-2010, hasta la actual Europa 2020 han pretendido potenciar la sociedad de la información potenciando una economía sostenible mediante el buen uso de las TIC. Uno de los pilares fundamentales de Europa 2020 es la Agenda digital para Europa donde, entre sus medidas, se encuentra la economía digital. En este sentido, se ha desarrolla el Mercado único Digital y el índice DESI según el cual España se encuentra en la posición intermedia con 0,52 puntos sobre el total. Destaca en el desarrollo de los servicios públicos digitales (0,73 puntos) mientras que debe de hacer un mayor esfuerzo en la integración de la economía digital (0,34 puntos).

 

En España, las políticas públicas comenzaron con el plan Info XXi y siguieron con la comisión soto, el plan de impulso con 19 medidas, España.es (con sus vertientes Patrimonio.es, navegación.es, etc.), conecta.es y euroingenio 2010 (dividido en los ejes CENIT, CONSOLIDER y el plan AVANZA que tuvo su continuación en el plan AVANZA 2). Actualmente, la Agenda Digital para España destaca su preocupación por la economía digital y el buen uso de las TIC para explotar la información y los datos.

Las políticas públicas tienen su reflejo normativo en varias leyes de impulso al emprendimiento tales como la ley 11/2013 de estímulo al emprendimiento, la ley 14/2013 del emprendimiento y su internacionalización. En ella se promueven diferentes acciones para el impulso del emprendedor que, a buen seguro, podrá dinamizar su economía mediante el uso de las TIC en la explotación de los datos.

La Administración también está haciendo un esfuerzo en este marco de gobernanza digital desarrollando la Estrategia TIC mediante la transformación digital. El Real Decreto 806/2014 que desarrolla los principios y órganos de gobernanza digital apoyan los 14 servicios compartidos. Entre ellos se encuentra el desarrollo de la nube híbrida, un claro ejemplo del principio de eficiencia en el tratamiento del dato. La ley 39/2015 del procedimiento administrativo y la ley 40 /2015 del régimen jurídico del Sector Público conforman el marco normativo esencial en los que los principios de economía, eficiencia, transparencia y acceso a los datos son fuente de inspiración para todo el articulado.

En conclusión, Vivimos en una sociedad del conocimiento marcado por una nueva corriente de la economía del dato. Esta se nutre de los nuevos principios de accesibilidad y transparencia que están inmersos en las todas las políticas tanto europeas como españolas. Se ha detallado en el primer bloque los aspectos contextuales de la globalización y su reflejo en el gobierno abierto mediante la transparencia y la reutilización de datos del sector público. En el segundo bloque se ha continuado con los retos y oportunidades más relevantes que se encuadran en una sociedad con marcados desafíos relacionados con la brecha digital. Ciertamente, nuevos hábitos de relación y consumo se están produciendo en el entorno de la web 2.0 y 3.0 donde las empresas están desarrollando sus economías mediante el acceso, manipulación y explotación de los datos. Finalmente, el tercer bloque ha seguido el hilo conductor del texto desarrollando las políticas más significativas tanto a nivel europeo como nacional destacando la posición de España en el índice DESI así como encuadrando algunas de las normas más relevantes de las Administraciones en todo este marco global, social y económico.

 

 

Anuncios

Presente y futuro de la universidad digital

¿Qué es la universidad digital?

logo_uned

Es bien conocida la aparición de varias universidades a que, apoyándose en las tecnologías, se han podido nutrir de alumnos a distancia. Una de las pioneras en este sentido fue la Universidad Nacional de Educación a Distancia (UNED) creándose en la década de los años 70. Con la emergencia y consolidación de las redes tecnológicas, otras universidades han surgido también en el mundo académico español adapatadas total o parcialmente.

 

Ejemplos de universidades digitales

Un extracto de algunas de ellas podemos encontrarla en la página de altillo:

Universidad Nacional de Educación a Distancia (UNED)
Universidad a Distancia de Madrid (UDIMA)
Universitat de Barcelona Virtual (IL3)
Universidad Virtual de Salamanca (USAL)
Universidad de Sevilla (US)

Centro de Enseñanza Virtual de la Universidad de Granada (CEVUG)
Universidad Carlos III de Madrid
Instituto Universitario de Posgrado (IUP)
Universidad de Cádiz (UCA)
Universidad de Cantabria (UNICAN)
Universidad de La Rioja (UNIRIOJA)
Universidad de Las Palmas de Gran Canaria (ULPGC)
Universitat Pompeu Fabra (UPF)
Universitat de Valencia (UV)
Universidad de Zaragoza (UNIZAR)
Universidad Rey Juan Carlos (URJC)
Universitat Jaume I (UJI)

¿Hacia dónde se dirige la universidad digital?

El profesor J. Francisco Álvarez, Catedrático de Lógica y Filosofía de la Ciencia de la UNED, ha coordinado el trabajo Gobierno electrónico y gobernanza en el Sistema Universitario Español, con el equipo de investigacion formado por:

Luis Álvarez Álvarez (ULPGC)
Eduardo Bustos Guadaño (UNED)
Miranda del Corral de Felipe (UNED)
Daniel Domínguez Figaredo (UNED)
Roberto Feltrero Oreja (UNED)
Inés Gil Jaurena (UNED)
María Jiménez Buedo (UNED)
David Teira Serrano (UNED)
Luis Vega Reñón (UNED)
Jesús Zamora Bonilla (UNED)

En dicho trabajo, se alcanzan algunas conclusiones sumamente interesantes, entre las que se encuentran:

  • Si no se ofrecen nuevos servicios, posibilitados por las “nuevas” tecnologías,
    posiblemente no se podrán ofrecer ni siquiera los tradicionales de manera
    más efectiva.
  • Las dificultades para un buen funcionamiento de la administración
    electrónica no se reducen a un problema de ineficiencia tecnológica, en la
    mayor parte de los casos reflejan una inadecuada comprensión de la
    transformación del marco sociotécnico y su incidencia en la conformación de
    las relaciones ciudadanos-administración.
  • La generalización y expansión del uso de las TICs, en prácticamente todos
    los procesos vinculados a los fines y objetivos de la universidad, plantea
    problemas muy serios de gobernanza del sistema.
  • El desarrollo de formas de gobierno abierto, en la línea del proyecto
    MyUniversity, que hoy permiten fácilmente las tecnologías disponibles
    constituyen una oportunidad excelente para avanzar en el gobierno
    universitario con las TI.
  • La expansión de formas participativas, abiertas y sociales, en línea con las
    propuestas de gobierno 2.0, son una condición para la gobernanza de las
    universidades en la era digital.
  • La atención a las e-compentencias, expresión de las necesidades formativas,
    educativas, culturales y conductuales de una sociedad emergente, se
    convierten en una tarea decisiva para poder construir la universidad digital.
  • Desarrollar formas de incorporación de gobierno abierto y participativo,
    disponibilidad en abierto de toda la documentación, sesiones, reuniones de los órganos de la universidad, sería una tarea a impulsar desde los equipos de gobierno.
  • El reconocimiento de las actividades online como formas de acción normal y
    cotidiana ayudarían, incluso más que el exclusivo voto electrónico, a la
    conversión necesaria de la universidad digital.
  • La actual transformación de las TI en auténticos suministros y servicios
    (commodities) que están disponibles para realizar las actividades que sean
    precisas, exige romper con el modelo de sostener unos completos servicios
    TIC internos a cada universidad. Construir un campus físico no significa que
    las universidades deban confiar para esa tarea en sus escuelas de
    arquitectura o de ingeniería. La construcción del campus de la universidad
    digital no tiene que apoyarse exclusivamente en los propios equipos TI de
    las universidades.

 

¿Universidad digital abierta?

El profesor Álvarez sostiene que el paradigma de universidad tradicional, aunque modernizada tecnológicamente, está obsoleto. La producción social del conocimiento tiene que ser más abierto y los esfuerzos deben dirigirse a la gestión de capital intelectual y no tanto en la gestión de infraestructuras tecnológicas propias. Desarrolla esta y otras ideas en el sugerente vídeo “Francisco Álvarez(UNED):OpenData y Google académico como índice reputación“.

 

Fuentes:

Álvarez, J.F.; Álvarez, L.; Domínguez, D. y Kiczkowski, A. (2011). Gobierno electrónico y gobernanza en el Sistema Universitario Español. Madrid, Ministerio de Educación de España (Informe final, Programa de Estudios y Análisis, EA-2010-0147).

 

 

 

¿Qué es la información?

La palabra “Información” nos rodea en cualquier ámbito. Estamos oyendo permanentemente frases como: “Vivimos en una Sociedad de la Información…”; “la información es poder”; “Hay que proteger la propiedad intelectual”; “hay que poner a disposición pública la información”… Veamos algunas características.

Image courtesy of FreeDigitalPhotos.net

Image courtesy of FreeDigitalPhotos.net

La información es:

  • Un bien “no rival”, el consumo por una persona no resta su disposición a ser consumida por otro (no así con una manzana). Es decir, millones de personas pueden estar consumiendo información en una noticia en un periódico online y no se acaba nunca.
  • Un bien “público” en tanto que el mercado privado no lo produciría atendiendo a su coste marginal, que es cero. Por tanto, el Estado artificialmente regula unos procedimientos para que el autor de una obra, por ejemplo, pueda tener un rédito económico mediante los derechos de propiedad intelectual. ¿Por qué? Se penaliza esta ineficiencia estática (en un momento dado) al producir bienes ineficientes por un bien mejor: dicho autor volverá a escribir otra obra más adelante. En general se fomenta la creatividad y la innovación. Esta infrautilización de la información fue defendida por Kenneth Arrow en 1962.
  • Insumo y producto. Toda producción informativa necesita, a su vez, de fuentes de los que alimentarse. Por ejemplo, la elaboración de una tesis se nutre de una bibliografía previa que hacen de insumo. No sólo eso, la producción humana tiene tres insumos:
    • La información y cultura preexistente, como se acaba de indicar
    • Los mecanismos de comunicación de la información. De la industrialización a la era de las redes, el coste ha caído dramáticamente.
    • El capital humano: La inteligencia y experiencia humana que es capaz de ofrecer la imaginación y el esfuerzo para producirla.

Según lo anterior, queda más que justificado que el capital humano es el recurso más valioso y por lo que está cobrando, cada vez, mayor protagonismo. La información tiene coste cero y, con Internet, los costes asociados a la propagación de la información decrecen paulatinamente. Además, se produce un fenómeno catalizador no sólo en términos monetarios sino técnicos. A pesar de que Internet es cada vez más complejo, se están desarrollando sitios web muy sencillos de implementar. Los blogs son un claro ejemplo (ver ¿Por qué un Blog? La tecnología es más compleja pero más sencilla).

 

Internet cambia el cerebro: no seas ingenuo

Ingenuo tecnológico

En el libro “Ética Digital” (2015) denomino al ingenuo tecnológico como “aquél que se siente embaucado con la tesis de que la tecnología no sólo es algo neutro sino que su aplicación provocará un progreso implícito que beneficiará a la sociedad que la acoja. Hay autores que defienden lo contrario, como Langdon Winner, en su artículo “Hacen política los artefactos” que sostiene que la tecnología, de suyo, tiene un componente político que no debemos despreciar”. Nicholas Carr en el prólogo destaca la figura revolucionaria de Marshall McLuhan que en 1964 publicó “Comprender los medios de comunicación: las extensiones del ser humano”. Este autor, en la línea de Winner defiende que la tecnología no es algo neutro y que, aunque creamos que controlemos, en realidad, somos víctimas de su influencia soterrada. McLuhan sostiene que el medio influye en la construcción social aparte del contenido que en él se maneje. Así sostiene: “Nuestra respuesta convencional a todos los medios, en especial la idea de que lo que cuenta es cómo se los usa, es la postura adormecida del idiota tecnológico”. Nicholas Carr contextualiza esta aseveración en respuesta al magnate de los medios tradicionales de masas Sarnoff el cual defendía que la tecnología es neutra.

Image courtesy of FreeDigitalPhotos.net

Internet modifica la cognición

McLuhan sostiene que el medio, efectivamente, modifica el pensamiento. No está solo en esta idea. Carr apoya esta tesis con varios ejemplos: a) percibimos diferente. Los nativos digitales leen, de manera natural, las webs de manera reticular y no lineal. La consultora nGenera publicó un estudio en 2008 donde se concluía que esta población inmersa digitalmente saltaban los párrafos de una página web buscando información pertinente; b) relevancia cognitiva web. Con el paso de los años y el uso masivo de las nuevas tecnologías, estamos acostumbrándonos a poder encontrar información relevante en segundos cuando antes podías invertir horas, incluso días buceando entre libros. El filósofo Joe O’Shea dice en este sentido que no tiene sentido leer un libro de cabo a rabo cuando puedes obtener la información relevante en minutos por internet; c) lo lineal da paso a lo reticular. Karp afirma que el viejo proceso lineal de pensamiento está dando paso a una nueva clase de mente que necesita información troceada, rápida y descoordinada. Twitter es un ejemplo paradigmático. Obtienes pequeños mensajes —tuits de 160 caracteres— de múltiples fuentes de información (tantas como twiteros sigas); y d) excitación cognitiva. El (ab)uso de internet en todo momento, sobre todo debido a los smartphones —y tabletas, en menor medida— , ha modificado la necesidad de información. Antes, sabías que podrías buscar algo cuando llegaras a casa y no antes. Ahora, en cualquier momento tienes a tu disposición la oportunidad de saciar tu curiosidad lo cual te realimenta positivamente a que sigas preguntándote más cuestiones relacionadas. Carr contrasta esta situación con el sosiego de las antiguas bibliotecas. Menciona en el capítulo 1 “HAL y yo” de Superficiales que estuvo trabajando, en su época universitaria, retirando y colocando libros de la biblioteca. Recuerda una sensación de calma cognitiva que se derivaba de la propia situación del medio en que se encontraba la información disponible:

[…] A pesar de estar rodeado de decenas de libros, no recuerdo sentir la ansiedad sintomática de lo que hoy llamamos “exceso de información”. Había algo tranquilizador en la reticencia de de todos esos libros, su disposición a esperar años, incluso décadas, hasta que llegara el lector adecuado y lo retirara de sus espacios asignados. Tómate tu tiempo, me susurraban los libros con sus voces polvorientas. No nos vamos a ir a ninguna parte. […]

 

Es conocido el estado de salud de Friedrich Nietzsche que le atormentó durante buena parte de su vida. Con sólo 34 años comenzó un periplo por Europa en busca de alivios para sus numerosas dolencias. Una de las consecuencias le afectó en su escritura ya que le fallaba la vista y por ello tuvo que idear una solución: encargar una máquina de escribir tipo “Writing Ball Malling-Hansen”. Tuvo que aprender a tocar el teclado y su estilo se volvió más estricto, más telegráfica, en palabras de Carr. El mismo Nietzsche se dio cuenta que el instrumento estaba condicionando sus pensamientos y su manera de entender el mundo. Así escribió “Nuestros útiles de escritura participan en la formación de nuestros pensamientos”.

Bibliografía y webgrafía

  • DEL CASTILLO, Javier (2015). ÉTICA DIGITAL: Hacia una Administración ética y eficiente. Ed. CreateSpace Independent Publishing Platform. Recuperado de: http://www.eticayadministracion.com/
  • PINES, Maya (1989). Los manipuladores del cerebro. Ed. Alianza.
  • MCLUHAN, Marshall (2009). Comprender los medios de comunicación. Ed. Paidós Ibérica.
  • CARR, Nicholas (2011). Superficiales. ¿Qué está haciendo internet con nuestras mentes? Ed. Taurus.

5 Claves para entender qué es el Software libre y de fuentes abiertas

Cortesía de freedigitalphotos.net

Clave 1 – Origen y evolución del Software Libre

De  la mano de los primeros desarrollos de la primigenia red de redes por el Darpa (Departamento de Defensa de EEUU), surgió en el ámbito académico un nuevo sistema operativo que revolucionaría aquel efervescente mundo tecnológico de los años setenta. Así Ken Thompson y Dennis Ritchie dieron a conocer UNIX en los laboratorios Bell. La idea, en palabras de Sebastián Sánchez, era presentar un entorno de trabajo agradable para el desarrollo de aplicaciones (Sánchez, 2002, prólogo). Tenía dos capacidades innovadoras: multiprogramación y tiempo compartido; que se traducía en que varias personas podía trabajar al mismo tiempo. Es difícil de exagerar lo que supuso este nuevo sistema abierto cuya acogida en los centros universitarios fue merecidamente calurosa.

 

Años más tarde, el finés Linux Torvalds presentó LINUX. Una distribución libre basada en UNIX. El núcleo no está desarrollado por ninguna fuente privativa. La mayoría del software disponible ha sido desarrollado por el proyecto GNU de la FSF[1] (Free Software Foundation) de Cambridge. Sin embargo, dice Sánchez, es toda la comunidad de programadores la que ha contribuido al desarrollo de aplicaciones para este sistema operativo (Sánchez, 2002, p.5)

 

Tanto en el mundo académico cuanto en el tecnológico el movimiento open source[2] fue ganando terreno. Eric S. Raymond influyó decisivamente con su obra “la catedral y el bazar” en la defensa de las ventajas de las fuentes abiertas. Una de los argumentos más conocidos se podría resumir en que cuatro ojos ven más que dos. Raymond aducía que en sistemas abiertos, muchas personas están observando y es más probable que se detecten los errores. En cambio, en sistemas tradicionales privativos, es una realidad que los errores afloran frecuentemente demasiado tarde (muchas veces en las computadoras privadas del usuario final).

[1] La FSF aportaría la nueva licencia GLP (General Public License) la cual podríamos llamar el primer copyleft. Con ella, los programadores ponían a disposición pública el código de los desarrollos bajo dicha licencia.

[2] Fue notable la publicación del código del navegador Netscape quien ganó una considerable cuota de mercado frente al imperante Internet Explorer.

 

Clave 2 – ¿Qué es lo que caracteriza al Software Libre?

Lo primero que tenemos que aclarar es que, en España, según el CENATIC[1] (Centro Nacional de Referencia de Aplicación de las TIC basadas en fuentes abiertas):

 

[…] los conceptos Software Libre y Software de Fuentes Abiertas hacen referencia a una misma realidad desde un punto de vista técnico, ya que la propia Ley 11/2007, de 22 de Junio, de Acceso Electrónico de los Ciudadanos a los Servicios Públicos, establece que una aplicación de fuentes abiertas es aquella que “se distribuye con una licencia que permite la libertad de ejecutarla, de conocer el código fuente, de modificarla o mejorarla y de distribuir copias a otros usuarios”

 

En todo caso, deben cumplirse cuatro propiedades esenciales: 1) Libertad de ejecución. Se puede usar el programa para cualquier propósito; 2) Libertad de acceso y adaptación. Se puede ver el código fuente y ver con todo el detalle cómo está desarrollado. Asimismo, se puede adaptarlo a tus necesidades modificando cuanto se desee; 3) Libertad para distribuir copias; 4) Libertad para mejorar el programa y distribuir copias.

 

De lo anterior se deduce que la gratuidad no es una de las características, error profusamente difundido[2].

 

En palabras de Roberto Feltrero[3] podemos distinguir cuatro ventajas derivadas de las cuatro libertades anteriores: 1) Ventaja cognitiva, al poder usar la aplicación; 2) ventaja técnica, al poder adaptar el software; 3) ventaja social, al entender el software como un elemento de beneficio social; y 4) ventaja ética, pues se pretende el acceso universal e igualitario a todas las personas al mundo software.

 

Todas estas ideas tenían que tener su plasmación legal en forma de licencia que pudiera servir de alternativa al “copyright. All rights reserved”. Así nació el “copyleft. All rights reversed”, siendo la licencia GPL (General Public License) pionera en este sentido. Con ella se protegían los derechos de aprendizaje social incentivando el desarrollo abierto y distribuido del software.

 

Una de las características más importantes del GLP es que exige que toda obra derivada también tenga que ser GPL, manteniendo esta condición para cualquier descendiente. No obstante, en el mundo real no todo es blanco o negro. Los propios desarrolladores de software libre se dieron cuenta que en ocasiones era provechoso reutilizar algún módulo privativo que pudiera encajar en el software libre. Para estos casos, surgió la licencia LGPL (Lesser GPL[4]).

 

¿Vulnera los derechos morales esta nueva desprotección de derechos? En absoluto, lo que ocurre exclusivamente es una apertura en los derechos patrimoniales (copia, alteración, distribución,…). Los derechos éticos asociados a la reivindicación y a la integridad que veíamos más arriba se mantienen asociados al autor inalienablemente.

 

¿Qué ocurre con la justificación económica en este caso? Ciertamente, no van a tener la recompensa directa que se buscaba en los derechos de autor inicialmente. No obstante, tiene otros beneficios. La popularidad y el prestigio son valores en alza en este entorno. Asimismo, existe también un beneficio indirecto económico. Normalmente viene dado sustancialmente por dos factores. El primero es el diferente tipo de producto en función del grado de calidad. Por ejemplo, Red Hat[5], empresa ampliamente conocida por su distribución de sistemas operativos, ofrece dos categorías de productos. Uno gratuito y otro de pago (aunque significativamente más barato que su competencia privativa). Este segundo se paga por la mayor funcionalidad y capacidad que ofrece. Normalmente, grandes organismos no podrían funcionar sobre las versiones free. El segundo factor es el mantenimiento. Existe una amalgama de diferentes tipos de mantenimientos y acuerdos de nivel de servicio. A mayor compromiso y garantía, mayor coste asociado.

[1] http://www.cenatic.es/sobre-el-software-libre

[2] Proveniente probablemente al equívoco neologismo “free software” el cual quería significar “libre” en este contexto pero se ha traducido a veces por “gratis” (quizás debido a que buena parte de los productos, en efecto, no tienen coste). El matiz estriba en que no es necesariamente gratuito.

[3] Las licencias del software libre: nuevos modelos y filosofías para la Propiedad Intelectual

[4] http://www.gnu.org/licenses/lgpl.html

[5] http://es.redhat.com/

 

Cortesía de freedigitalphotos.net

Clave 3 – La Propiedad Intelectual y el Software Libre

Según lo visto hasta ahora, podríamos categorizar dos dimensiones de la propiedad intelectual:

 

  • Dimensión ética. Esta versa sobre los derechos morales que tiene el autor en relación a su obra y a la explotación de la misma. Por otra parte, está el necesario equilibrio entre el beneficio individual y el beneficio colectivo (acceso igualitario y universal)

 

  • Dimensión pragmática. El beneficio económico incentiva a la innovación y a una realimentación para la creación de más obras, no sólo del autor sino de los editores y otros agentes involucrados.

 

¿Dónde encajaría el Software libre en este marco? En palabras de Feltrero (2004), en el  SL Libre se funden los argumentos éticos de tipo global con los argumentos morales de tipo individual[1].

 

Asociado al SL estaría su documentación. Esta, lógicamente, también tiene que estar alineada con el movimiento open. De esta manera surge la licencia FDL[2] que distingue la parte técnica (objetiva) de las opiniones (parte subjetiva). La diferencia reside en el tipo de protección. La primera parte puede ser modificada mientras que la segunda no, manteniendo inalterada la parte valorativa.

 

Otra cuestión a tener en cuenta es cómo poder categorizar las obras para poder saber qué licencia le es apropiada en función de su naturaleza. En este punto, Richard Stalman (2000) distingue tres tipos: 1) obras funcionales. Son obras objetivas del estilo FDL descritas anteriormente: recetas, diccionarios,…; 2) obras valorativas, en las que se exponen posiciones subjetivas: ensayos, artículos,… ; y 3) obras estéticas. Aquí estarían las creaciones artísticas no incluidas en las dos anteriores: novelas, música,…

 

Si bien la clasificación de Stallman inspira para ser conscientes de la importancia en poder conciliar la propiedad intelectual frente al beneficio social, no deja de tener algunos problemas sin resolver. En efecto, no todas las obras pueden ser categorizadas en estas tres ramas. Es más, la mayoría estarían a caballo entre varias de ellas. Por ejemplo, es muy difícil encontrar obras que sean totalmente objetivas o subjetivas. Por otra parte, ¿quién lo determinaría?

 

Esta última pregunta nos introduce a un nuevo enfoque centrado en el autor como garante de sus propios derechos. Con esta filosofía nace la licencia Creative Commons[3](CC). Existen seis licencias que son producto de la combinación de las siguientes condiciones[4]:

 

  • Reconocimiento. Explicitar la autoría de la obra.
  • No comercial. No se permite que la obra original, puedan obtenerse lucros
  • Sin obras derivadas. No se permite la transformación para crear obras a partir de la original
  • Compartir igual. Se permite la transformación para las obras derivadas. Eso sí, debe mantenerse la misma licencia.

 

Con esta filosofía de licencia abierta se da la oportunidad al autor para que decida qué derechos (y en qué grado) desea compartir. No se opone al copyright, sino que, sobre esta “sobreprotección” de derechos, indica cuáles quiere que sean de dominio público.

 

Con ello, hemos conseguido una fórmula intermedia que suaviza el control que obtienen las actuales leyes de copyrights subsumidas en un contexto en el que prima la dimensión económica (casi con exclusividad). Permite, asimismo, dotar al autor de mayor autoría y autonomía para poder decidir sobre su creación.

[1] En el documento Las licencias del software libre: nuevos modelos y filosofías para la Propiedad Intelectual”, en la página 5 Roberto Feltrero distingue tres tipos de argumentos: tipo moral, de tipo pragmático y de tipo ético. Yo he creído fusionar el ético y el moral por ser muy parecidos y simplificar la distinción frente a la dimensión pragmática, nítidamente opuesta.

[2] http://www.gnu.org/copyleft/fdl.html

[3] Creative Commons es una organización sin ánimo de lucro que permite a autores y creadores compartir voluntariamente su trabajo, entregándoles licencias y herramientas libres que les permitan aprovechar al máximo toda la ciencia, conocimiento y cultura disponible en Internet. http://es.creativecommons.org

[4] http://es.creativecommons.org/blog/licencias/

 

Cortesía de freedigitalphotos.net

Clave 4 – Evolución del Software Libre

El movimiento open source que hemos expuesto someramente ha ido evolucionando alterando, según algunos críticos, su esencia. Por ejemplo, Cremades (2007) pone el ejemplo de Firefox, navegador alternativo al famoso Internet Explorer. Nació a partir de otro browser, Netscape, con la misma filosofía abierta. No obstante, la Fundación Mozilla gestiona el código y emplea directamente a un grupo de programadores. ¿Se está jerarquizando el modelo de negocio del sw libre? Los menos críticos hablan de la estructura de círculos concéntricos.

 

En los más externos estarían las personas que contribuyen de manera solidaria con sus aportaciones sin ánimo de lucro. Por otro, en los círculos más internos habitaría un grupo coptado de personal altamente cualificado que revisaría todas las sugerencias y, en última instancia, decidiría qué se implementa y se incorpora como mejora.

 

Los defensores de este método aducen que en un mundo tecnológico tan competitivo, la calidad es un factor determinante. Ésta se conseguiría mediante una mayor gestión de los cambios y de control (la cual es más difícil de forma distributiva). Un ejemplo de esto sería el caso de Red Hat mencionado arriba o tantos otros[1].  Finalmente, se argumenta que, sin lo anterior, se pondría en riesgo la supervivencia de la empresa. Esta aseveración no está exenta de polémica pues podemos encontrar en el mercado ejemplos exitosos de un lado y de otro.

[1] Apache como servidor web, JBOSS como servidor de aplicaciones, MySQL como Servidor de Bases de datos…

 

Clave 5 – El lado oscuro del Software Libre

Tras revisar al alza las bondades que conlleva la socialización de la información, no todo son ventajas en el movimiento open.

 

Uno de los problemas que se da en muchas comunidades abiertas es que la gente absorbe conocimiento (para su desarrollo personal libre o privativo) pero no aporta apenas o nada. Esto ocurría en mayor medida en los inicios cuando no existían licencias que protegieran legalmente los derechos de autor (aunque fueran copyleft). Aunque más mitigado, sigue ocurriendo a día de hoy.

 

Existe, no obstante, otro problema más importante que ataca la línea de flotación del SL. Sería un argumento ético en el sentido siguiente: se presentaría una filosofía de movimiento abierto cuando, tras ese velo presuntamente solidario, se descubriera una organización intrínsecamente sectaria desde un punto de vista epistemológico. ¿Por qué? Los que defienden esta posición de agravio aducen que muy pocas personas pueden, en realidad, acceder a la información debido a la alta cualificación técnica que ha de disponerse. La modificación de los programas quedaría también relegada a dicho personal técnico. Finalmente, todo el poder decisorio sería por supuesto también objeto del mismo personal. De las cuatro libertades del SL, quizás la distribución de copias pudiera ser la menos vulnerada en este argumento.

 

Una tercera crítica sería el riesgo inherente a la falta de mantenimiento de un producto o bien a una mejora continua de calidad. Si una comunidad de desarrollo decidiera no proseguir con el trabajo, quedarían vulnerables los usuarios que han confiado en el uso de dicho producto. Esto podría darse en grandes compañías y en organismos públicos. La mayoría de los ministerios en España tienen un porcentaje de su estado del arte basados en productos libres. Normalmente, este riesgo no suele ser tan alto ya que los sistemas adquiridos suelen ser muy reconocidos y con una profesionalidad que garantiza que, o bien no se va a producir este abandono, o bien, se anunciaría con suficiente antelación como para que el cliente pudiera migrar a otro producto equivalente (en el mundo libre o privativo).

 

Roberto Feltrero (2003) nos ilustra un ejemplo en este sentido al hablar de las bibliotecas y su suscripción a revistas digitales. Según este autor, las bibliotecas tienen dos funciones básicas: dar acceso a fondos y configurar un repositorio de conocimiento. Con las suscripciones electrónicas y la temporalidad en el tiempo que conllevan la renovación de los pagos podríamos tener un problema. En efecto, si no agotara una licencia y no ser renovara podrían verse minadas ambas funcionalidades[1].

[1] Feltrero puntualiza que estaría más dañada la segunda funcionalidad en relación a no poder tener cumplir con la labor de de la elaboración  de un fondo bibliográfico de ese material.