Demasiado a menudo se utiliza el número de portales como ejemplo de la buena situación de los Datos Abiertos en España. Este argumento, tantas veces repetido, es erróneo. Por un lado, se cuenta como portal lo que a veces es una página con enlaces a PDFs (Extremadura), o esta semi-vacío (Asturias). Pero aún más grave es que es una métrica que genera incentivos perversos. De hecho, la fiebre “portalista” guarda muchas semejanzas con la de los aeropuertos: del mismo modo que alcaldes y presidentes de toda España se apresuraron en levantar grandes obras de infraestructuras aeroportuarias hoy abandonadas, cada institución ha querido hacerse la foto con su propio portal para aparentar transparencia. </p>

Uno de los casos paradigmáticos es el de Open Data Cordoba, que costó 400 mil euros de fondos europeos, no se asemejó ni de lejos a lo que significa un verdadero portal de estas características y se apagó sin dar explicaciones un año después. En realidad, el alto número de portales en comparación con otros países es un síntoma de falta de coordinación y colaboración, lo cual dificulta la reutilización de datos: tendremos que recorrer 17 portales para bajarnos datos en 17 formatos distintos elaborados con 17 metodologías diferentes (añadamos pasos si tratamos información de corporaciones locales, por ejemplo).

En esa línea, es frecuente encontrarse en las conferencias sobre Open Data a administraciones totalmente opacas y que ignoran sistemáticamente a los ciudadanos colgándose medallas porque han estrenado una web y le han asignado el vistoso nombre de “Datos Abiertos”. De ahí la importancia de disponer de buenos criterios para medir la calidad de las iniciativas Open Data y para distinguir las operaciones estéticas de los gestos reales hacia una apertura de datos públicos. En este sentido, Open Data Euskadi es ejemplar y ha marcado el camino a otras comunidades autónomas como Cataluña, Navarra, Castilla y León o, más recientemente, Aragón, que quieren seguir sus pasos. Existen otros casos de éxito en España, como el Catastro, que ha sabido aplicar la tecnología y la apertura de información para agilizar los trámites.

El ‘Open Data Index’

En Septiembre del 2012 la Web Foundation publicó por primera vez el Open Data Index, un subconjunto de su más veterano Web Index. En él se mostraba a España en la úndecima posición a nivel mundial. Una serie de personas involucradas en la difusión del Open Data en España escribimos entonces una carta abierta a la Web Foundation, explicando nuestras discrepancias con la metodología y con los resultados, en nuestra opinión inmerecidos.

La metodología del estudio no es rigurosa, puesto que se basa en las respuestas a un cuestionario por parte de una persona no identificada en cada país, que ni siquiera debe ser un experto en Open Data. El proceso de selección y los criterios utilizados no se conocen, pero sí sabemos -por las respuestas de la Web Foundation a nuestros correos- que no tienen por qué ser “expertos en Open Data”, ya que el “Open Data Index” es un subconjunto del “Web Index” ya existente (y que sí incorpora una serie de datos objetivos adicionales; el Open Data Index sólo los formularios). No sólo no sabemos cómo se elige al experto, sino que el experto elegido puede decidir mantener su anonimato, como ha ocurrido en España.

El anonimato de los evaluadores podría ser aceptable si se realizara una encuesta a un grupo variado y representativo (administraciones, sociedad civil, reutilizadores de datos…) o existieran criterios objetivos para evaluar las respuestas. Pero no es el caso: no existe ninguna indicación sobre qué significa “8 sobre 10” en una pregunta sobre “disponibilidad de datos de salud” y no se aportan enlaces a los datos que justifiquen esa evaluación. Lo que hace el cuestionario es medir la percepción de esta persona sobre la situación en el país, y no aporta información ni enlaces que permitan verificar la puntuación (lo cual no deja de ser irónico dado el campo de estudio).

Así, el estudio no tiene consistencia interna y las puntuaciones entre países no son comparables entre sí, pues dependen del criterio subjetivo y no evaluable de una persona que podría perfectamente tener un conflicto de interés. No somos los únicos que cuestionan los resultados, en Méjico también les cuesta creer que se les considere los segundos del mundo.

Métricas rigurosas para analizar el Open Data

El problema es que se confunde lo importante con lo que se puede medir muchos análisis se basan en la primera métrica simple que encuentran: número de portales, número de datasets… Estos baremos son totalmente arbitrarios y dependen, en gran medida, de cómo se organice la información. ¿Por qué no se analiza el volumen de información? ¿Por qué no la frecuencia de actualización? ¿O por qué no la cantidad de datos realmente descargados y utilizados, que podría incluir al menos una cierta valoración de la utilidad real de los datos?

Cualquier conclusión que se saque sobre estos números sin cuestionar la metodología o realizar un mínimo control de calidad de los datos pierde validez. En España llamamos Open Data hasta a un formulario web. Open Data Cordoba presumía de tener más datasets que el resto de España juntos, ¡más de cuatro mil!. ¿Cómo? Con algunos tan fragmentados como “Población según edad y sexo. Distrito Centro. Año 2004”; “según edad y origen”; “Distrito Levante”; etc.

La única forma seria de medir el estado del Open Data es evaluando la disponibilidad de una serie de datasets críticos, en la línea de lo que intentó hacer la Web Foundation: salud, educación, transparencia de agendas o licitación… Lamentablemente su implementación (usar la percepción no justificada de un ‘experto’ no identificado) se aleja totalmente de parámetros rigurosos y comparables. La Web Foundation dice haber tomado nota, así que esperamos que el índice 2013 sea mejor.

La situación en España

El problema principal de España en este campo es la falta de una visión y apoyo claro a nivel nacional. Mientras que el gobierno inglés ve los datos como fuente de crecimiento, en España los pasos que se dan son para retroceder, cobrando por ejemplo por datos meteorológicos que eran gratuitos y podían estimular investigación o innovación.

El propio Secretario de Estado de Relaciones con las Cortes, José Luis Ayllón, responsable de la tramitación actual de la Ley de Transparencia, Acceso a la Información Pública y Buen Gobierno ha afirmado que el objetivo de la ley “es la transparencia”, no facilitar el acceso a datos que son fruto de su trabajo. Esa es la auténtica visión sobre el Open Data en España.

El principal obstáculo para replicar a nivel nacional las páginas de presupuestos de Euskadi y Aragón es que la información de los Presupuestos Generales está en ficheros HTML y PDF. Cuando Alberto Garzón, diputado de Izquierda Unida, solicitó al gobierno la información en formato reutilizable, lo cual no debería suponer un gran esfuerzo para la administración, la respuesta del Gobierno fue que “el concepto de transparencia se refiere a la suficiencia de información suministrada y no al mero aspecto formal de presentación de datos”, lo cual demuestra que ni existe voluntad ni conocimientos en las administraciones públicas sobre lo que de verdad significa el Open Data.