Cómo convencerme de que tu software merece confianza

Tecnología no fiable a largo plazo. Por: Jeremy KeithCC BY 2.0

Invertir esfuerzo en un software clave para la actividad de una organización, para más tarde verse obligado a cambiarlo, puede ser un problema realmente traumático. Pero el software muchas veces no es un input cualquiera en un proceso de trabajo, sino que se adapta a él y a su vez adapta el proceso de trabajo a sí mismo: es decir, cuando un software va a permanecer en la organización a largo plazo, el proceso de trabajo puede ajustarse para aprovechar mejor sus ventajas y sortear sus limitaciones. Con esto quiero decir que el nivel de dependencia entre un trabajo y el software que se utiliza para realizarlo puede llegar a ser muy elevado, y cambiar el software un problema de primera magnitud.

No voy a hablar de cuando ese cambio de software se debe a un error de selección (cuando se descubre que la elección era insuficiente para las necesidades), sino un caso mucho más extremo: cuando el producto desaparece. El proveedor desaparece; cambia su negocio y elimina el producto; es adquirido por un competidor que elimina el producto. La pequeña empresita que ofrece el producto sufre un revés en sus resultados y pierde pie.

La cuestión, entonces, es de confianza: ¿cuándo es confiable, a largo plazo, un software? ¿Quién garantiza la continuidad y estabilidad de esta herramienta? ¿Quién garantiza la rentabilidad de la inversión de esfuerzo que haremos en aprenderla y alimentarla?

Esta semana recibí una invitación a probar software de pago, un CRM (software de gestión de clientes) en la nube ofrecido por una consultora española de tamaño mediano, que me hizo pensar y sacar algunas conclusiones provisionales sobre este tema.

Sólo encuentro dos casos en los que el software merece confianza a largo plazo:

  • O es un producto asentadísimo en el mercado, uno de los líderes, casi estándar, con una empresa muy sólida que gana dinero con él (Google Reader, never forget).
  • O es software libre y depende de la comunidad (opción que prefiero).

Y otros tres casos en los que podría no haber confianza, pero valer la pena de todos modos:

  • El producto es muy innovador (en sentido muy amplio; incluyendo, por ejemplo, los casos de productos que sean la única opción seria de su nicho).
  • El producto es muy barato (lo cual, compitiendo contra software libre, será difícil de conseguir).
  • El producto tiene un lock-in muy bajo: esto requiere que los datos sean muy fáciles de trasladar a otro producto y que la curva de aprendizaje sea mínima.

El CRM en la nube cuya publicidad recibí no pertenecía a ninguno de estos casos. Era propietario, poco conocido, en la banda de precios habitual, aparentemente hace lo mismo que todos los CRMs (no presumen de ninguna función original en su web), y se me ocurren pocos tipos de software con un lock-in tan elevado como un CRM (complejo, más que curva de aprendizaje tiene una carretera de la muerte, y necesidad de conservar todo el trabajo antiguo para realizar el trabajo futuro).

Por eso no puedo evitar preguntarme: ¿para qué existe ese producto? ¿Qué ventaja tiene su oferta? ¿Dónde está el negocio? Y mi única conclusión es el poco conocimiento en temas tecnológicos, el miedo incluso, de los clientes potenciales (especialmente de las personas que toman las decisiones en esos clientes), los cuales no tienen definidos los criterios que he descrito más arriba. Ni siquiera son unos criterios universales: muchísimos clientes, aun hoy, confían más en un producto propietario que en uno libre.

Creo, en conclusión, que falta comprensión sobre la fiabilidad a largo plazo del software, que se suele percibir como un factor secundario frente a sus funciones, y a veces se da por descontada. Si quieres convencerme de que use tu software, ofréceme alguno de los cinco argumentos que he dicho; si no, ni siquiera entiendo por qué tu producto existe.

Nota: esta entrada es una ampliación de un comentario que dejé en el blog de Pablo Yglesias.

 

Da igual que Android sea software libre

Recomiendo leer este extenso artículo en Ars Technica sobre las múltiples formas en las que Google controla el ecosistema, presuntamente abierto, de Android. En la práctica, en el caso de Android, la gran mayoría de las ventajas prácticas que normalmente se consiguen gracias a las cuatro libertades del software libre, quedan anuladas. Por ejemplo, no es posible contribuir al desarrollo de Android, que se realiza de forma completamente privada en Google. Pero lo más grave, y lo que se detalla ampliamente en el artículo, es que Google ha conseguido usar software libre para crear dependencia de un solo proveedor (vendor lock-in).

Yo soy un defensor y adoptador del software libre, pero no por sí mismo, sino por sus consecuencias para nuestro modelo económico global: creo que el software libre es una interesante pauta para una transformación profunda de la economía (es una visión utópica, lo admito) que persiga minimizar todas las formas de dependencia del proveedor (que son muchas y muy variadas: por ejemplo, el mercado de trabajo).

Por eso, no me interesa el software libre en sí mismo, sino sus resultados en la economía del software. Y el resultado en el caso de Android es inequívoco: Google tiene un vendor lock-in bastante potente sobre una plataforma libre. Lo cual reafirma una conclusión a la que llegué hace tiempo: el software libre no debe ser un fin en sí mismo, sino un medio para llegar al software comunitario. Originalmente, ambas cosas eran iguales, porque la inmensa mayoría del software libre se creó comunitariamente; pero el caso de Android muestra que ambas facetas se pueden separar, y que lo importante no está tanto en la parte libre (libre sobre el papel, en la licencia) como en la parte comunitaria (comunitaria en la realidad de las personas que crean y usan el software).

Uso la palabra “comunitario” en el sentido más laxo: un grupo amplio de empresas que controlan democráticamente la producción de un software me vale como “comunidad”. La cuestión es que es la comunidad la que evita la dependencia del proveedor, no la licencia.

Personalmente, no veo una alta probabilidad de revertir esta situación. No es que sea difícil hacerlo: bastaría que unos cuantos fabricantes de móviles importantes dejaran de utilizar Android y su ecosistema, y empezaran a utilizar un fork desarrollado entre todos ellos (adoptando CyanogenMod, por ejemplo). Pero lo más probable es que sigan con lo que hacen ahora: desarrollar tímidamente algunas alternativas a algunas herramientas de Google, pero cada uno por su lado. ¿Por qué? En mi opinión, por el hardware: a diferencia de los PCs, el hardware de los teléfonos es cerrado, y la colaboración entre fabricantes les empujaría en una dirección común, volviéndoles intercambiables, commodity. Y gigantes como Samsung o HTC tienen otros argumentos. En resumen, no veo que pueda prosperar el software libre sin hardware abierto e intercambiable.

Eficiencia oblicua

Ayer dije a un colega que no me gustaba adaptar demasiado las herramientas de trabajo a los procedimientos. Las herramientas son tontas, sólo hacen una cosa. Para adaptarlas al procedimiento, necesitas que éste sea estricto y modelizable: tienes que reducir el procedimiento a una sola cosa, prohibir los atajos, proscribir las interpretaciones.

Y hoy pensaba: ¿qué hacer cuando el procedimiento te asfixia? ¿Cómo hacer para descarrilar los procedimientos y lanzar experimentos intuitivos de inciertos resultados?

¿Cómo podría ser una baraja de Estrategias Oblicuas para el trabajo?

Obviamente, lo primero que hice fue sacar una carta al azar de mi edición 2001 de la baraja:

Not building a wall but making a brick

 

Hacer un ladrillo en lugar de construir un muro.

Era evidente.

La eficiencia a menudo se opone a la robustez. ¿Es eficiente que los aviones lleven sistemas eléctricos completamente duplicados por si falla uno? No, pero la eficiencia es una consideración secundaria.

Buscar la eficiencia nos lleva a perfeccionar obsesivamente métodos y herramientas totalmente adaptados a nuestra forma de trabajar de hoy, extremadamente rápidos y eficientes. Hasta que llega otra persona y nos hace ver que nuestra forma de trabajar ha quedado obsoleta.

Entonces pretendemos cambiar la forma de trabajar y las herramientas. Pero modificar una herramienta especializada y adaptada es muy costoso. Así que podemos: A) no cambiar ni la herramienta ni el método; B) cambiar el método y no cambiar la herramienta; C) maldecir el destino y sacar la cartera.

A Brian Eno no le gustan los estudios de grabación caros porque presionan a los músicos, y el tiempo para buscar la creatividad vale más que la buena tecnología de grabación.

A Taleb no le gustan las tecnologías demasiado especializadas, demasiado adaptadas a un fin concreto, porque son frágiles.

Modificar herramientas es mucho más fácil cuando se puede hacer reemplazando una pieza por otra: cuando las herramientas son un Frankenstein de piezas genéricas, unidas con cinta aislante y estándares. Pero esas herramientas serán menos especializadas y menos eficientes, ¿no es verdad?

Un ejemplo. Arduino y la Raspberry Pi están siendo utilizados para construir todo tipo de dispositivos caseros variopintos. ¿Es eso más eficiente que los dispositivos especializados, producidos industrialmente? Diríase que no, pero:

  • ¿Y el conocimiento generado?
  • ¿Y la posibilidad de desmontar el dispositivo y reutilizar las piezas? Arduino sirve para cualquier cosa. Los dispositivos especializados, solo para una.
  • ¿Y la adecuación perfecta a las necesidades concretas de ese momento? A pesar de que se han usado piezas genéricas reutilizables, el dispositivo se ajusta a lo que el dueño necesita, porque el dueño ha invertido su tiempo en ello (mucho más ineficiente que invertir capital y generar economías de escala).
  • ¿Y las externalidades de todo tipo que la industria fabricante no incorpora a sus costes, sino que carga sobre la sociedad? ¿Seguiría siendo eficiente si las externalidades se contabilizaran correctamente?

El cruce productivo de conocimiento requiere tanto concepciones simplistas de la eficiencia o en ideas novedosas?

He querido sacar otra carta de la baraja para concluir esta reflexión. Juro al lector que la he sacado al azar:

Work at a different speed.

Trabaja a un ritmo diferente.

Cuatro polémicas sobre reutilización de contenidos (y 2)

Viene del artículo anterior.

 

Curator’s code

Curator's codeEl código del curador de contenidos, promovido por la conocida, respetada y también polémica Maria Popova, plantea la idea de que filtrar internet (seleccionando, agregando y contextualizando) es en sí mismo una tarea de creación autoral, que merece atribución y reconocimiento. En los casos más hiperbólicos, se ha llegado a anunciar que la curación es tan importante como la creación.

O, al menos, más valiosa en el mercado.

As Godin sees it, power is shifting from content makers to content curators: “If we live in a world where information drives what we do, the information we get becomes the most important thing. The person who chooses that information has power.” (…) Scoble has declared curation as the next “billion dollar”

Porque, como señala la última frase citada, la cuestión de la importancia intelectual de la curación de contenidos no puede aislarse de su creciente repercusión comercial: no se puede ignorar que esta polémica emerge al mismo tiempo que la curación de contenidos empieza a presentarse como un negocio consolidado, una necesidad de las marcas, un servicio ofrecido por los community managers, la herramienta de marketing del futuro, el terreno de los servicios online más cool (que surfean la ola de Twitter en los medios de comunicación).

Sin embargo, la idea del valor intelectual de la curación (y de la importancia de su atribución) ha sido cuestionada rotundamente, incluso con exceso de causticidad.

Opinión personal: toda esta polémica está contaminada, desde su origen, de lenguaje de marketing, publicidad y ventas. Casi cualquier frase sobre los beneficios de la curación de contenidos tiene implícito un “para el curador”, o peor aun, “para las marcas”. No “para los usuarios”. Implícitamente, no se está hablando de la utilidad intelectual que tiene para el lector ese “trabajo intelectual” del curador: se está hablando de visitas, tráfico en sitios financiados por publicidad, ingresos. Nada más profundo que el reparto de la tarta entre curadores y creadores.

Filtrar internet para construir conocimiento es otra cosa. – Autocita

 

Readability y Readlists

Readlists es una utilidad proporcionada por los creadores de Readability. Readability es un servicio de una categoría bien asentada (como Instapaper y Pocket), que recoge el contenido de una página web, limpia el texto de cualquier elemento extraño (anuncios, menús, navegación) y crea una lista de artículos legibles, que se puede leer en cualquier momento, desde cualquier dispositivo, y descargar como libro electrónico.

ReadlistsTodos los servicios para aplazar y facilitar la lectura han sido moderadamente criticados, porque recogen todo el contenido de una página web (scraping), no solamente una cita, y lo muestran en otro contexto. Pero Readability tiene el mayor historial de polémicas: por su sistema de pago a creadores, por su forma de compartir enlaces, y finalmente por Readlists.

Readlists añade funciones para hacer pública, fácilmente, una selección de páginas hecha con Readability. Una persona recopila artículos de fuentes diversas, compilando el equivalente a un libro de ensayos, y publica esa recopilación, redistribuyendo el contenido fuera de su contexto original, eliminando la necesidad de que terceros visiten las fuentes.

Cualquiera, con un par de clics, puede divorciar por completo el escrito (que es el producto que los usuarios quieren) y el soporte original (que suele ser la fuente de ingresos relativa a ese contenido), sin que el creador pueda hacer nada (al contrario que otros mecanismos para separar el contenido, como el RSS, que deben ser proporcionados por el creador).

Services like Instapaper, Pocket and Readability walk a fine line. They exist so people can save and read articles later, but the mechanism they use to do so—grabbing the article’s content, but not the web page itself—effectively scrapes it. It’s very easy to cross over from saving articles for later to saving articles and distributing the content on your own, for your own purposes. Instapaper works hard to stay on the right side of this line. (…) Readlists crosses over that line rather aggressively. – Tightwind

Readability afirma tener 5 millones de usuarios. Sus experimentos no le han supuesto, aparentemente, un perjuicio ni monetario ni pérdida de clientes.

 

Conclusión

Los cuatro problemas expuestos se circunscriben a la explotación económica de contenidos de acceso abierto en la web. La web se diseñó para compartir información científica, no comercial, de forma completamente libre. No tiene mecanismos propios para controlar la difusión y así hacer posible la explotación económica; y es prácticamente seguro que, si los hubiera tenido, jamás hubiera conocido la expansión revolucionaria que tuvo. Esa expansión no estaba prevista, pero, como diría Jonathan Zittrain, la web es generativa precisamente porque no es un producto cerrado ni terminado.

Los creadores y distribuidores de contenido nunca han podido ni podrán controlar lo que la web hace con su creación. Cualquier explotación económica que necesite ese control, fracasará. Los modelos de negocio provenientes de lo analógico (la venta de ejemplares o suscripciones, la venta de espacio publicitario) son demasiado simplistas para la web y eventualmente acabarán fracasando. Hará falta estudiar, organizar e institucionalizar una variedad de fuentes de ingresos mucho mayor que la actual: publicidad (pero más allá del cuasimonopolio de Google) y suscripciones, pero también micropagos, donaciones, productos derivados, afiliaciones… e incluso la terrible idea de que el contenido online sólo sea un medio de promoción, que no genere ingresos por sí mismo sino que te haga popular para obtener ingresos de otra manera.

En cuanto a la legitimidad ética del uso que la web hace con los contenidos, hay que sopesar lo que internet nos ha quitado (desde periodismo analógico hasta agencias de viajes) y lo que nos ha dado (desde enciclopedias abiertas hasta software libre), y cada uno valorar cada cosa con sus propios criterios morales.

Cuatro polémicas sobre reutilización de contenidos (1)

Creative Commons, copyleft, piratería, viabilidad de los sectores de la prensa y la cultura, plagio, buscadores parásitos, innovación disruptiva, EEUU vs UE, amateurización y pérdida de calidad, propiedad de lo que cuelgas en abierto en internet…

Lo que está en internet es muy fácil de reproducir, enlazar y referenciar: por lo tanto, esa reproducción va a tener lugar, sin que nadie pueda impedirlo (idea que en España hace años que está indisolublemente unida a la expresión “no se pueden poner puertas al campo”). Pero, ¿hasta qué punto es legítimo reproducirlo, enlazarlo y referenciarlo? ¿Qué parte, que proporción de un contenido puedes copiar sin abusar? ¿Qué parte de tus ingresos por esa reproducción corresponden a la fuente original: todo, nada, o algo entre medias?

Estos son algunos conflictos que se han producido:

 

Google News

La prensa acusa a Google News de perjudicarla haciendo uso de sus contenidos, y reclama que Google pague por indexar noticias publicadas por los periódicos. Se presentan denuncias, los jueces dictaminan, los gobiernos intervienen y se establece una ‘tasa Google’. Después de España?

Desde mi punto de vista, me parece claro que el uso que Google News hace de los contenidos es justo y proporcionado: recoge el titular y una mínima cita, facilita al usuario la contextualización y envía visitantes a las páginas originales. Pero las páginas originales no quieren eso: quieren que el público entre directamente en su página, por la portada, naveguen por las secciones buscando sus temas de interés, abriendo múltiples noticias

En este caso, claramente, la situación de las páginas pequeñas y de los grandes medios es opuesta. Los pequeños medios no tendrán la posibilidad de recibir dinero de Google. Tampoco tiene sentido que lo reciban, puesto que, con toda probabilidad, Google les genera mucho más tráfico que el que pudieran perder.

Incluso si aceptásemos la hipótesis de que Google tiene que compensar a la prensa tradicional, (…) ¿por qué se debe esa compensación sólo a los medios tradicionales? (…) ¿Por qué no a los medios no tradicionales o a los amateurs? – Julio Alonso

El agregador, tal como funciona hoy, beneficia al pequeño frente al grande. En mi espacio mental hay sitio para una docena de periódicos, mientras que en la portada de Google News hay enlaces a muchos más; los sitios pequeños no pueden esperar que mucha gente entre directamente en su página, por la portada. Hacer pagar a Google por indexar contenidos no puede beneficiar, de ninguna manera, a Google News, al incrementar su coste, y perjudicar a Google News perjudicaría a los pequeños frente a los grandes. Supongamos, por ejemplo, que Google llegara a un acuerdo para rebajar el importe a pagar a cambio de dar mayor visibilidad a los grandes periódicos en su servicio.

Perjudicar a los pequeños frente a los grandes no es un criterio de jucio definitivo, pero sugiere inequívocamente que algo va en dirección errónea.

 

Meltwater

MeltwaterMeltwater es una empresa estadounidense que proporciona, a precios de cliente corporativo, una base de datos de noticias. Su sistema extrae noticias publicadas en abierto por decenas de miles de sitios web de prensa, las clasifica automáticamente, las indexa para una búsqueda por texto completo, y permite al cliente hacer seguimiento de las apariciones de cualquier término en todos los medios periodísticos disponibles. En resumen: la versión de pago de Google News: más exhaustiva, más potente y orientada a una explotación intensiva, no sólo a la consulta.

La empresa fue denunciada en 2012 por Associated Press, acusada de “modelo de negocio parasitario”. En febrero de 2013, los principales periódicos americanos se posicionaron del lado de AP. La Electronic Frontier Foundation apoya a Meltwater.

The newspapers argue that Meltwater isn’t a “search engine,” but a competitor undercutting their own news-clipping businesses. (…) Of course, Meltwater isn’t providing customers with full copies of articles, like traditional press-clipping services did. But the newspapers argue it’s cheating them by giving away “the most valuable expression news media create and market, namely headlines and their ledes.”

Opinión personal: que “lo más valioso” que crean los periódicos sean sus titulares dice mucho más sobre su crisis de ingresos que páginas y páginas de artículos acusando a los agregadores.

Es dudoso que, estando orientado al cliente corporativo, el servicio realmente arrebate una gran proporción de usuarios a las páginas de los periódicos. A mi juicio, esto relativiza la pretensión de la prensa de beneficiarse de parte de los ingresos de Meltwater. ¿Es legítimo beneficiarse del trabajo de la prensa, construir sobre los productos de la prensa, sin pagar a la prensa, incluso si ese beneficio no reduce en nada los beneficios de la prensa? En numerosas ocasiones, la prensa no tiene inconveniente en beneficiarse del trabajo de otros sin compartir con ellos. Mentalidad pre-internet.

El valor añadido que proporciona el servicio de Meltwater es indudable. No me cabe duda de su legitimidad. La pretensión de que un tercero no tenga derecho a clasificar las noticias de todos los medios para que los usuarios puedan buscar y elegir sin tener que llegar a través de la portada del medio, sí me parece ilegítima.

(Disclaimer: yo he utilizado este servicio. En mi experiencia personal, este uso no hizo perder ni una visita a las páginas de los periódicos, sino que ganaron. Y es un servicio que no creo que vuelva a emplear, mis preferencias personales van por otro lado.)

 

Concluirá en la segunda parte con Readlists y Curator’s Code.

Yanis Varoufakis sobre la crisis económica

Minientrada

Yanis VaroufakisPara los que tengan tiempo, ganas y soltura en inglés, me ha parecido muy interesante esta disertación (PDF) del economista griego Yanis Varoufakis sobre los mecanismos que condujeron a la crisis económica y las arenas movedizas donde nos estamos hundiendo. Un discurso provocador, que empieza negando la crisis de deuda (en realidad no la niega, sino que la matiza), recusa a la ciencia económica en bloque y retrotrae sus explicaciones a la Segunda Guerra Mundial. Tres cosas que, lo reconozco, me calientan por dentro.

No hay un único modelo para explotar económicamente el procomún

Este artículo de Jaron Rowan dice:

Cuando empezamos a investigar con detalle diferentes casos en los que el procomún y la economía entran en contacto nos damos cuenta de un factor muy interesante, el procomún no produce “modelos económicos”, es decir, fórmulas replicables que se puedan implementar en diferentes contextos. Al contrario, nos ofrece formas más o menos ingeniosas diseñadas por las diferentes comunidades para poder explotar ciertos recursos de forma sostenible. Así pues, el procomún nos proporciona ejemplos muy situados de gestión, sistemas completamente integrados en contextos sociales específicos que no aspiran a universalizarse sino a ser viables.

El análisis detallado de las relaciones entre el procomún y los sistemas económicos diseñados para explotarlo no nos ofrece ninguna gran narrativa ni modelo a seguir, al contrario, nos empuja a aceptar que la economía funciona a base de hibridez, de micro-modelos que buscan dar respuestas a problemas y realidades localizadas.

En cierto sentido, es posible que este sea el marco que justifica y racionaliza las explicaciones sobre videojuegos independientes y software libre que he hecho en dos artículos (1 y 2) al respecto. Mi afirmación era que no es tan importante que ese tipo de videojuegos no sean software libre, porque el “código” que tiene valor para abrir no es tanto la programación como las ideas de diseño.

Tras leer el artículo citado, entiendo que estaba hablando, sin darme cuenta, de un procomún, y de que las especificidades del software de juegos hacen que el modelo sea diferente del más general del software libre.

José Alcántara dice que lo importante del software es la libertad. Creo que puede haber alguna matización. En el caso de los videojuegos (y tal vez de cualquier otro software que sea más expresivo que productivo), el software no es libre, pero el software no es un recurso productivo reutilizable clave, así que es posible que aparezca una comunidad alrededor de un procomún formado por los elementos reutilizables claves.

Esto no es para disminuir ni un ápice la importancia del software libre: es para ir más allá y aprender a detectar otros recursos potencialmente “comunables”.

Internet nerds (and the venture capitalists behind them)

Minientrada

Me pregunto si el editor Jay Babcock era consciente de lo brillante y a contracorriente que es su hallazgo en esta entrevista, donde explica por qué la revista que edita vuelve al papel:

The internet nerds and the venture capitalists behind them, they said all the destructive work that they were doing was going to get rid of the gatekeepers and open everything up. What’s it’s done is replace the old gatekeepers with new, worse gatekeepers called Apple, Google, Facebook.

Tres veces lo repite. Jamás culpa solamente a los tecnólogos: siempre van unidos a los inversores. No creo que sepa que los tecnólogos no dirigidos por el capital riesgo sino por otros mecanismos luchan contra los guardas tanto como él. Los problemas de internet casi siempre son sociales, no tecnológicos.

A propósito del Ubuntuphone

Ubuntu Phone

Quedamos en que Nokia había fallado en su proyecto de smartphone basado en software libre porque era una empresa demasiado grande, burocrática y rígida para sobreponerse a los errores de estrategia. Y probablemente haya pasado lo mismo con el prometedor (todos lo son) WebOS.

En poco tiempo han coincidido varias noticias con respecto a nuevos intentos de insertar una cuña libre en el duopolio de Apple y Google. Con la novedad de que, en estas ocasiones, estamos hablando de proyectos mucho más pequeños y flexibles. Me refiero a Sailfish (proyecto que hereda la tecnología de Nokia+Intel), del que se ha divulgado una demostración recientemente; el muy mentado Ubuntuphone anunciado hace un par de días; y podríamos añadir el Firefox OS que desarrolla Mozilla. No añado Tizen porque depende de una megacorporación.

¿Demostrarán estos proyectos que un tamaño más pequeño y una mayor agilidad permiten triunfar? Eso espero, pero no soy optimista; mientras los aparatos no salgan de las fábricas, consideraré estos proyectos en fase de vaporware. Y eso que mi definición de triunfo es modesta: me basta con su supervivencia y la disponibilidad de sus productos, sin importarme una alta cuota de mercado.

El segundo punto es: si sobreviven, ¿lo harán a costa de aproximarse al modelo de Android? Debo explicar en qué consiste ese modelo: Android es software libre, pero no comunitario. La licencia libre ha permitido forks pero el producto propiamente dicho es completamente cerrado, carece de aportaciones de terceros, carece de comunidad, carece siquiera de un grupo colaborador de empresas.

Y es que últimamente vengo pensando que la libertad del software es poco menos que irrelevante si no desemboca en la formación de una comunidad. Como he dicho en otros contextos: la tecnología no importa, sino su apropiación social. En el caso del software, la apropiación social consiste en que su desarrollo esté fuera del control de cualquier agente individual, sino que sea gestionado como un procomún. Si el software es libre, pero está completamente controlado por una sola empresa, tanto nos daría que fuera propietario.

Pero es que el móvil es una plataforma muy mala para la formación de comunidades. Porque lo que una comunidad hace con el software es experimentar, hackear; y en los móviles el hardware impide, en mayor o menor medida, esta experimentación. Por esto tiendo a pensar que, mientras el hardware sea tan cerrado y controlado como el de los móviles (mientras no exista el equivalente a un PC compatible genérico), el software libre tiene pocas probabilidades de prosperar.

Muchas preguntas y ninguna respuesta, al menos hasta dentro de un año.

Lectura recomendada: la UNCTAD habla sobre software libre

Minientrada

El último informe de la UNCTAD sobre economía de la información (disponible aquí, sólo en inglés) tiene un capítulo dedicado a las tendencias de adopción del software libre, especialmente en países en desarrollo, cuya lectura recomiendo encarecidamente. Hace síntesis de un volumen abrumador de información, para retratar una situación cada vez más alentadora.

(Nota: ¿a qué se refieren los datos de cuota de mercado de servidores donde Apache pierde un 40% en dos años? No coincide con su propia fuente. Actualización: este error del informe fue corregido tras la publicación de esta entrada, como indica Scarlett Fondeur en los comentarios.)

Nuevo proyecto web: ZOOM Internacional

He lanzado un nuevo proyecto online: ZOOM Internacional, una web sobre internacionalización económica.

ZOOM Internacional es un sitio web de selección, difusión y análisis de noticias sobre la internacionalización de la economía española. Se centra en los exportadores españoles, los mercados y los sectores más prometedores.

Sus objetivos son:

  • Filtrar el caudal de información para difundir sólo lo relevante.
  • Darle sentido a través de la contextualización y el estudio.

ZOOM Internacional está realizado por personas con años de experiencia en el campo de la internacionalización económica, el apoyo a los exportadores y el estudio del marco económico para la internacionalización.

ZOOM Internacional es un proyecto cuya motivación es poner a prueba los propios conocimientos, fortalecer el hábito del análisis y la escritura, y difundir libremente los resultados.

Technicalities

Técnicamente ha sido un desafío interesante ponerlo todo a punto. Pero no es un proyecto complejo, y está al alcance de mucha gente, lo que yo veo como una virtud (cualquiera podría estar interesado) y no como una desventaja.

Esquemáticamente, es un blog en WordPress que importa RSS, generados por una instalación de Tiny Tiny RSS utilizada para agregar decenas de fuentes y filtrarlas por numerosas palabras clave. La selección final es manual. Hay mecanismos extra para facilitar la búsqueda y recuperación rápida de las entradas antiguas, a efectos de escribir nuevos contenidos (fundamental, puesto que el objetivo del blog es contextualizar).

Usa el tema gratuito Magazine Basic, bastante personalizado. Me interesaría rehacerlo desde cero, basándome en algún framework gratuito que no tenga nada de formato. Pero no he encontrado un framework que permita hacer la lista de entradas en forma de rejilla (¿alguien conoce?).

Y eso viene a ser todo. ¡Disfruten!

Videojuegos independientes, software libre y espíritu hacker

Yo soy un convencido exclusivista del software libre. Excepto en un caso. Los principios del software libre no han calado entre los creadores de videojuegos.

Sin embargo, si nos olvidamos del rigor stallmánico y miramos con un concepto algo más amplio del procomún, nos encontramos cosas interesantes. Aunque no hay mucho software libre, el espíritu hacker es cada vez más visible.

Bajemos a las catacumbas de los videojuegos, a lo más independiente de lo independiente. Vamos a estudiar fenómenos de los últimos 10 años, protagonizados por jóvenes que en su mayoría aún no han cumplido los 30.

English Country Tune

Ludum Dare es una competición que se celebra 3 o 4 veces al año, en la que los participantes tienen 48 horas para desarrollar un videojuego desde cero sobre un tema dado. Se reciben cientos de juegos amateurs, inevitablemente crudos, generalmente derivativos, pero con su cuota de joyas: si no juegos completos, al menos ideas y destellos, como por ejemplo esta demencia de Tyler Glaiel.

Ludum Dare no es la única competición: TIGSource Compo, Experimental Gameplay Project… Y estas competiciones revelan dinámicas interesantes:

  • Liberación del código.
  • Sentimiento comunitario.
  • Deseo de ganarse el respeto de los pares, mediante aportaciones.
  • El prestigio personal es el capital que se puede acumular.

Desarrollemos un poco estas observaciones. Si la primera característica que define a un hacker es la pasión, hacer un juego gratis completo en dos días es una de las mejores pruebas de pasión que se me ocurren.

Aunque a nivel de catacumbas (experimentos y prototipos programados en maratones) el código se libera a menudo, no es nada habitual en producciones de más entidad (incluso ha llegado a generar algún problema que otro). Pero eso no es importante, porque los juegos se conciben más como obras de creación, puntuales y acabadas (incluso si son experimentos), que como desarrollos graduales. La verdadera aportación a la comunidad son las ideas: las mecánicas, la inspiración, las soluciones. No se continúa con el desarrollo de un juego, sino con la exploración de un concepto en juegos sucesivos de personas diferentes, y en discusiones.

Y esta aportación genera un capital simbólico que puede llegar a ser monetizado. El prestigio y la fama de estos creadores, tras la publicación de varios juegos gratuitos y la participación mediante foros y blogs, así como su red de contactos personales (con blogueros de prestigio, con otros creadores para colaborar), crea expectación cuando pasan al desarrollo comercial y empiezan a vender.

Si no, ¿por qué Tyler Glaiel iba a volver a Ludum Dare apenas un mes después de publicar un juego comercial profesional? Las carreras de Nifflas, Edmund McMillen, Cactus o Terry Cavanagh son claros ejemplos, incluso la carrera como escritora de Anna Anthropy. thatgamecompany, Tale of Tales o thechineseroom ofrecen interesantes variaciones sobre esta pauta.

¿Una conclusión? Sin mucha afinidad con los principios del software libre, estos jóvenes han creado una forma de producción común similar en muchos sentidos.

Tal vez este es el modo de producción natural de internet.

* * *

Otro tema interesante para un artículo futuro sería cómo explotar económicamente este trabajo común: las tramposas historias épicas de francotiradores frente al sistema, si Mark Shuttleworth está en todas por visionario o por bocas, las lecciones económicas del Humble Indie Bundle o discutir si Steam va a ser el Google de todo esto.

Pero otro día. Ahora, con su permiso, tengo una cita con el folk inglés.

Mullenweg responde a Forbes

Minientrada

Cuando escribí sobre el tóxico artículo de Forbes sobre Matt Mullenweg y WordPress, no había visto que el aludido había respondido en su blog, exponiendo otra prueba de que los tradicionalistas (por llamarlos de alguna forma) de la revista lo habían entendido todo al revés. Lean la respuesta, es concisa y aguda.

[Forbes] A distributed workforce means Automattic can hire talent from around the world–without having to offer the perks and pay of Google, Facebook and Apple.

 

[Mullenweg] I’d like to counter the last sentence, which implies this is something we do as a cost saving scheme: being distributed is not a legacy, it’s a conscious choice.

Y esta frase me parece adorable, aunque no se pueda traducir: [“telecommute”] reminds me of “horsless carriage”.

Opinión sin autoridad sobre el futuro de los emprendedores

Hay una serie de artículos que ha pitado bastante últimamente (yo los he visto mencionados en varios sitios, aunque ahora solo recuerdo Consultoría Artesana) que defienden que el emprendedor tecnológico será la nueva clase trabajadora.

Yo no tengo experiencia directa del ecosistema emprendedor, menos aun si se trata del yanki que es el tratado en este artículo. Disclaimer por delante, yo no tengo ni idea de nada. Pero soy bastante bueno tragando información y digeriéndola. Bueno para detectar supuestos implícitos que se pueden cuestionar, por ejemplo. Así que préstenme atención bajo su responsabilidad.

By Dicklyon at en.wikipedia [Public domain], from Wikimedia Commons

Los artículos, extensos, documentados y profusamente argumentados, defienden que toda una serie de aspectos de moda de la cultura startup (las incubadoras, los business angels, la metodología Lean Startup) representan una evolución de las relaciones entre emprendedores e inversores igual que la que hace más de un siglo dio lugar a la aparición de la clase media y la clase trabajadora del siglo XX. Argumenta, pues, que ciertos emprendedores serán el equivalente a la clase media del pasado, y que fundar una startup que acabará comprada por una gran empresa (las arquetípicas son Facebook y Google), la carrera de empleo normal para la nueva clase media.

Muy interesante, con decenas de argumentos y ramificaciones, pero algo no me gusta en los artículos, y es, evidentemente, lo que no se dice y no se cuestiona. Voy a verbalizarlo así:

El autor asume que el futuro de Facebook y Google va a ser parecido a su pasado.

Su argumento descansa en la suposición de que el músculo financiero de las grandes empresas para comprar startups va a permanecer intacto, así como la necesidad de las startups de ser compradas (por la limitación de sus perspectivas frente a la competencia de los grandes y gigantes).

Eso me parece mucho suponer.

En el último artículo habla de cómo la vieja economía, el eje Washington-Wall Street (no ahorra epítetos hacia ellos, empezando por criminales), se posicionará defensivamente frente a la nueva economía. Interesante. Entonces, ¿hemos de entender que Google y Facebook no dependen en ninguna medida de Wall Street?

Parece pensar que Google y Facebook tienen los dos pies en la nueva economía. Yo diría que tienen uno en la vieja, y el otro, quizá, en la línea.

Los modelos de negocio de ambos gigantes no parecen tan sólidos, en opinión de muchos. El batacazo bursátil de Facebook, el monocultivo publicitario de Google, parecen socavar esa seguridad. Y la publicidad es un negocio parasitario simbiótico de la “vieja” economía. Yo incluso diría que es el negocio paradigmático de la segunda mitad del siglo XX: lo menos “nuevo” imaginable.

Puede que el hype de Silicon Valley sea construir servicios en un mundo definido por los gigantes de internet (cabalgando la infraestructura de esos gigantes -APIs abiertas y demás). Pero que esa sea la nueva economía está por ver.

Y recuerden que yo no tengo ni idea.