Diferencias entre Privacy Shield y Safe Harbour

privacy shield y safe harbour

Privacy Shield fue un acuerdo para regular la transferencia de datos personales desde la Unión Europea a Estados Unidos. Este acuerdo apenas tuvo una vigencia de cuatro años (2016 a 2020). En su momento, sustituyó al Safe Harbour, un pacto con idéntico propósito entre la UE y EEUU, invalidado en octubre de 2015.

Pero, ¿eran diferentes estos dos instrumentos? ¿Por qué razón Safe Harbour y Privacy Shield fueron anulados por el Tribunal de Justicia de la Unión Europea? Ambas cuestiones las responderemos en las siguientes líneas.

Safe Harbour y Privacy Shield en contexto

La legislación sobre protección de datos de la UE no permite transferir datos de sus ciudadanos fuera de Europa. A menos que esta información sea enviada a una nación con políticas de privacidad comprobables y ajustadas a las condiciones de la regulación europea. En consecuencia, la Comisión Europea y el Departamento de Comercio de EE.UU. establecieron en el año 2000, el acuerdo Safe Harbor. Mediante el mismo, las empresas estadounidenses podían certificar personalmente su cumplimiento de los estándares europeos.

El “Puerto Seguro” regulaba la transferencia de datos sobre comportamientos de los usuarios durante su navegación en Internet. Es decir, transfería datos del historial de búsquedas, compras online y la interacción en redes sociales o el registro de sus datos en páginas web o aplicaciones móviles. Obviamente, estos datos son valiosos para organizaciones como Google, Amazon o Apple, entre otras. Pero para el ciudadano, esta información es de carácter sensible puesto que involucra su privacidad y sus movimientos en internet.

El TJUE pone fin el Safe Harbour

Sin mayores tropiezos, este primer acuerdo permitió el envío de datos de un lado al otro del Atlántico durante quince años. Hasta que el 6 de octubre de 2015, cuando el Tribunal de Justicia de la UE decide poner fin de forma irrevocable el Safe Harbour. ¿Qué ocurrió? Para ser breve, el TJUE falló ese día a favor de Maximillian Schrems, un estudiante austríaco que demandó a Facebook por vulnerar su privacidad. El demandante inició la denuncia al enterarse de las revelaciones que había hecho el polémico Edward Snowden a The Guardian en 2013. En ellas, probó que el Gobierno estadounidense, mediante su agencia de inteligencia NSA, vigilaba de forma sistemática y masiva las telecomunicaciones mundiales.

Para poder llevar a cabo la vigilancia, se empleó un programa de espionaje conocido como PRISM, con el que el gobierno estadounidense fue capaz de obtener todo tipo de datos. Entre otros, podía llegar a direcciones IP, correos electrónicos, fotos, vídeos, perfiles en redes sociales y transferencias de archivos. Peor aún, los documentos de Snowden sugerían que organizaciones como Microsoft, Facebook o Google estaban enterados del acceso del Gobierno de EE.UU. a sus servidores.

La breve historia de Privacy Shield

Una vez invalidado el Safe Harbour, el Departamento de Comercio estadounidense y la Comisión Europea comenzaron a trabajar en la redacción de un acuerdo mejor. De allí surgió Privacy Shield, un instrumento legal que incluía normas y medidas especiales en cuanto al tratamiento de datos, además era de obligatorio cumplimiento para las empresas estadounidenses. Estas compañías debían registrarse y someterse a los términos del pacto. Después de este trámite, el Departamento de Comercio les inspeccionaba para dar el visto bueno e incluirles en una base de datos de libre acceso.

El acuerdo de Privcy Shield entró en vigencia en 2016. Justo el mismo año que la UE aprobó el Reglamento General de Protección de Datos, que entró en vigor dos años después. Sin embargo, en julio de 2020, el TJUE dictó una nueva sentencia –conocida como Schrems II– que anuló el Privacy Shield. El organismo judicial justificó el fallo indicando que el “Escudo” no garantizaba la protección de datos de acuerdo con las disposiciones recogidas en el Reglamento General de Protección de Datos (RGPD). En el momento de su anulación, casi 5.400 compañías estaban registradas en la base de datos del acuerdo.

Las diferencias entre Privacy Shield y Safe Harbour

Algunos especialistas en protección de datos opinaban que no existían grandes diferencias entre Safe Harbour y Privacy Shield. En sí, ambos acuerdos tenían más interés en la metodología de las transferencias de datos que en el cambio de sus características.

Cuestión de principios

En primer lugar, los dos acuerdos tenían base en siete principios: notificación, elección, transferencias de datos a terceros, acceso, seguridad, integridad de los datos y aplicación. Solamente la diferencia residía en que el Escudo de Privacidad se enfocó más en los derechos individuales de los usuarios de la UE. En este caso, incluyó requisitos más rigurosos para las compañías estadounidenses y restricciones de acceso a los datos personales por parte del gobierno de EE.UU.

Transferencia a terceros, un logro notable de Privacy Shield

Por otra parte, Privacy Shield puso importante énfasis en la transferencia de datos a terceros. Su predecesor sólo establecía la obligación de las empresas de advertir y solicitar consentimiento a los usuarios antes de compartir sus datos personales con terceros. No obstante, podrían librarse de tal obligación si el tercero realizaba tareas en representación o por instrucciones de otra entidad.

Por el contrario, con el Escudo de Privacidad, las empresas que necesitasen compartir la información con terceros debían acatar el principio de limitación de finalidad.  Además, debían asegurar que el tercero proporcionase el mismo estándar de protección impuesto por el acuerdo a las compañías originales. Por si fuera poco, las empresas estaban obligadas a suministrar copia de los puntos de su acuerdo de privacidad con el tercero al Departamento de Comercio. Sin el cumplimiento de estos requerimientos, la organización seguía siendo responsable del tratamiento indebido de la información según lo establecido por el acuerdo.

¿Más opciones para reclamar?

En la teoría, el Escudo de Privacidad ofrecía a los usuarios europeos diferentes opciones para presentar reclamaciones relacionadas con el tratamiento de sus datos. Incluso se mencionaba la figura de un “defensor del usuario” en EE.UU. independiente de los servicios de inteligencia. El mismo se encargaría de tramitar e investigar las demandas de particulares de la UE y de suministrar información sobre el cumplimiento del acuerdo en circunstancias específicas. También, en caso de que estos agotaran todos los recursos, podían solicitar un arbitraje vinculante. Aun así, el cargo de defensor del usuario estuvo vacante hasta 2018, lo que generó molestias en la UE.

Más responsabilidad

Igual que su predecesor, Privacy Shield impuso a las empresas que se retiraran del acuerdo mantener los datos captados con los mismos estándares de protección exigidos durante su pertenencia al acuerdo. Pero fue más allá al prolongar la responsabilidad de estás organizaciones sobre la información obtenida aún después de retirarse. Asimismo, hizo obligatoria la gestión de registros sobre los programas de privacidad por parte de cada compañía para facilitárselo a los reguladores cuando lo solicitaran.

¿Cómo transferir datos a EE.UU. en la era post Privacy Shield?

A pesar de la invalidación del Privacy Shield, es factible que las organizaciones que precisen transferir o usar datos personales desde los Estados Unidos continúen haciéndolo. En función de ello, pueden acogerse a las cláusulas contractuales estándar (SCC) implementadas por la Comisión Europea. Dichas cláusulas están contenidas en decisiones de la CE: 2016/2297/UE (modificación de la 2010/87/UE) y la 2004/915/CE (modificación de la 2001/497/CE). De hecho, el artículo 46 del RGPD contempla este recurso ya que supone el cumplimiento de medidas para la protección de datos personales.

Del mismo modo, las compañías tienen la opción de apelar a las Normas Corporativas Vinculantes (BCR). Las multinacionales suelen emplear este mecanismo que les compromete a cumplir reglas para la transferencia de datos personales a nivel corporativo. A los efectos, el artículo 47 del RGPD determina lo necesario para recurrir a esta alternativa.

La calidad de datos es indispensable para su transferencia fuera de la UE

¿Tu empresa necesita transferir o gestionar datos de ciudadanos europeos fuera de la Unión Europea? Entonces, debes saber que el artículo 47 del RGPD establece, entre otros detalles, la obligación de especificar la calidad de los datos. Esto hace necesario contar con soluciones informáticas que te permitan localizar datos duplicados, así como unir los módulos de normalización y enriquecer dichos datos. En este sentido, MyDataQ, de Deyde, es la herramienta que necesitas para cumplir este requisito.

DEYDE es una empresa con 20 años de experiencia en el desarrollo de soluciones de calidad de datos para empresas de diversos sectores productivos. Empleamos para ello los recursos y parámetros más idóneos para garantizar su exactitud. ¡Ponte en contacto con nosotros!

BeeDIGITAL y DEYDE, una alianza de 17 años

Páginas Amarillas

Desde 2004, y tras varios cambios a lo largo del tiempo, BeeDIGITAL confía en los servicios de DEYDE para aportar la máxima calidad en sus datos.

Ya son más de 17 años desde que la empresa líder en soluciones tecnológicas de digitalización para Pymes y Autónomos en España, Páginas Amarillas, conocida actualmente bajo el nombre de BeeDIGITAL, confiase en los servicios de normalización, enriquecimiento e identificación de duplicados de DEYDE Calidad de Datos.

 Su cambio de nombre viene dado por la evolución digital de la compañía a lo largo de los años, y, durante todo este proceso de transformación BeeDIGITAL ha confiado en DEYDE para la optimización de los datos internos de sus clientes.

DEYDE y BeeDIGITAL empezaron su relación en 2004, cuando el grupo británico Yell era propietario de Páginas Amarillas. Por aquel entonces ya estaba establecido como el buscador de empresas referente con sus guías telefónicas y, después de dar sus primeros pasos en el mundo digital, decidieron contar con los módulos de MyData Names, Adresses y Dedupe en su licencia de Uso Batch para bases de datos de gran tamaño con registros masivos.

Tras dos años de colaboración, BeeDIGITAL decidió seguir confiando en DEYDE sus bases de datos y se amplió la licencia de uso con la incorporación de una nueva herramienta, MyDataQ Geo Coordenadas, imprescindible para un negocio que se basa en la búsqueda y localización de Pymes por parte de usuarios.

Los módulos de MyDataQ contratados por BeeDigital son fundamentales, ya que en el buscador se informa de la dirección exacta de los negocios y cómo de cerca se encuentran de la localización del cliente.

Un portal como PáginasAmarillas.es, que cuenta con más de un millón de datos, tiene muchas probabilidades de encontrarse con registros duplicados. Encontrarlos y eliminarlos es fundamental para evitar errores, mejorar la imagen de la empresa y conseguir una visión única de sus clientes.

Presente y futuro de BeeDIGITAL junto a DEYDE

En la actualidad, BeeDIGITAL cuenta con DEYDE como su normalizador de referencia, habiendo renovado su licencia de uso Cloud, para el tratamiento de su base de datos en la nube, de forma ilimitada para España y Andorra. Además, cuenta con las herramientas de MyDataQ Addresses, Geo Coordenadas y Geo Inversa, que ayudan a generar direcciones postales a partir de coordenadas.

José Luis Torregrosa, IT Manager de BeeDIGITAL ha indicado que DEYDE ha resultado de gran ayuda. “Usamos los servicios que nos proveen de operaciones para validar, buscar, completar direcciones y normalizarlas para poder incluirlas en nuestros sistema de forma adecuada”, ha explicado. Por su parte, Luis Martínez, Director General de DEYDE ha manifestado su satisfacción y ha agradecido a BeeDIGITAL su confianza una vez más por contratar los servicios de DEYDE para mejorar la calidad en la información contenida en sus bases de datos. Desde DEYDE siempre “buscamos mejorar la calidad de los datos de nuestros clientes para que ellos puedan sacar el máximo partido”, ha señalado.

El porvenir de BeeDIGIAL y DEYDE

Ambas empresas afrontan el futuro en sintonía y efectividad. Durante estos años ha quedado demostrada la importancia de que las empresas tengan una identidad digital. La supervivencia de pequeñas y medianas empresas depende de su digitalización y localización en internet.

Hace dos años, Páginas Amarillas se volvió a reinventar, convirtiéndose en BeeDIGITAL. La compañía se ha ido adaptando a los cambios de hábitos de consumo para ofrecer a los clientes respuestas a sus necesidades en el mundo del marketing digital, y prueba de ello son los más de 70.000 clientes, la base de datos de más de un millón de Pymes y las más de 140.000 webs producidas hasta el momento.

Por su parte, DEYDE Calidad de Datos seguirá apoyando su proyecto gracias a la licencia ilimitada. Tras la unión de DEYDE a Accumin, se trabajará en el desarrollo de nuevas ideas para potenciar aún más las herramientas y soluciones actuales que puedan beneficiar a todas las empresas.

La importancia de la calidad de los datos en ferias y eventos

datos en ferias y eventos

Las soluciones digitales tienen un rol clave en el proceso de adaptación del sector de los eventos a la realidad post Covid-19. Por tanto, los datos en ferias y eventos están adquiriendo más importancia de la habitual en este regreso a la normalidad.

Ciertamente, la Asociación Global de la Industria Ferial (UFI) estimó en 200.000 millones de euros las pérdidas en este ámbito ocasionadas por la pandemia. Solo en Europa, el confinamiento significó para el sector una merma de 65.000 millones de euros, según la Asociación de Ferias Españolas (AFE). La cancelación de actividades masivas presenciales alteró significativamente la agenda de las empresas y hasta la del Instituto de Comercio Exterior de España (ICEX). Dicha institución organizó la participación de empresas españolas en 124 ferias internacionales en 2019. En 2020, el ICEX redujo la cifra a 37 eventos, 11 de ellos en formato virtual.

Una vez confirmado que no podían celebrarse eventos presenciales en 2020, la digitalización permitió ofrecer una amplia diversidad de formatos de ferias digitales para exposiciones canceladas. Los mismos variaron en función de cada evento para agilizar y hacer más atractiva la interacción entre visitantes y expositores.

Datos en ferias y eventos, las empresas del sector y la nueva omnicanalidad

Gracias a la digitalización y a la gestión de datos, las ferias están prolongando su duración. Muchas de ellas pasan de los tres a cinco días usuales en formato presencial a uno o dos meses de celebración en el ámbito virtual. Esto se debe al empleo recurrente de recursos como los webinars, mesas redondas, presentaciones, concursos y otras formas de interacción.

Obviamente, la captación y gestión de datos en ferias y eventos virtuales es crítica para mantener la relación con las empresas. Así como también lo es para llegar a más usuarios, aunque su desarrollo varíe de acuerdo a la naturaleza de las organizaciones. Incluso, algunas empresas optan por crear plataformas digitales propias en colaboración con compañías especializadas. Mientras que otras empresas están externalizando la gestión de estos servicios. Por lo tanto, la tecnología es un soporte fundamental en este período transitorio hasta volver a la normalidad de las exposiciones presenciales.

ICEX, un caso de gestión tecnológica y de datos en ferias y eventos

Por ejemplo, las herramientas digitales son vitales en las actividades del ICEX en este tipo de marketing; ya que permiten mantener la presencia de las empresas españolas en aquellos eventos que sí se celebran de manera normal, mediante filiales, importadores u otra clase de socios locales. Asimismo se están desarrollando pabellones virtuales en ferias convertidas al formato online.

Por otro lado, el ICEX sigue explorando más opciones en pro de continuar el trabajo de promoción y de ayudar a las empresas locales en la identificación de oportunidades reales. Al igual que en el fortalecimiento de contactos relevantes para su negocio.

En ambos casos, la tecnología y la gestión de datos en ferias y eventos están siendo de gran utilidad, ya que se han digitalizado los formatos en muchos de los instrumentos. Incluso, se están llevando a cabo jornadas, actividades de formación de prescriptores y encuentros empresariales online. Más aún, se están organizando pabellones virtuales en exhibiciones o catas y misiones directas totalmente virtuales.

El ejemplo de IFEMA

El Consorcio Institución Ferial de Madrid (IFEMA) supo aprovechar la pausa obligatoria por la pandemia para adelantar su proceso interno de transformación digital. De esta manera pudieron conservar una pequeña fuente de ingresos. La ventaja es que este organismo ya tenía algún tiempo practicando una línea de trabajo relacionada con el desarrollo de plataformas digitales. Como en muchos otros casos, la crisis sanitaria lo que hizo fue acelerar el proyecto de digitalización. Con este propósito, IFEMA implicó más de un tercio de su plantilla en el desarrollo y fortalecimiento de plataformas virtuales o híbridas. En dichas plataformas han dispuesto contenidos compartidos presenciales y digitales, como en la iniciativa denominada La Pasarela.

Aparte de lo anterior, IFEMA trabaja en desarrollos de realidad aumentada para el sector ferial, al igual que en la plataforma LIVE Connect, basada en Inteligencia Artificial. Esta plataforma está asumiendo de manera virtual la actividad comercial, promocional y de conocimiento de las ferias tradicionales. Por este motivo, es probable que la plataforma LIVE Connect se convierta en un poderoso complemento cuando se retorne a la normalidad.

En octubre de 2020, se llevó a cabo la feria internacional FruitAttraction Live Connect, la primera experiencia de IFEMA con LIVE Connect en tiempo real. En torno al evento se congregó una comunidad profesional cercana a los 7.000 participantes. La convocatoria generó más de 15.000 contactos profesionales y 40.814 mensajes intercambiados. Durante dicho evento, se realizaron más de 500 reuniones dentro de la plataforma, así como 186 videollamadas. Todo esto genera datos valiosos que requieren ser procesados de manera eficaz.

Datos en ferias y eventos para asumir los retos y perspectivas del sector

Actualmente, aún se pone en duda si las exposiciones tendrán en el futuro el mismo esplendor y relevancia de antes. Expertos como Xabier Basañez, presidente de la AFE aseguran que, en adelante, muchas ferias se llevarán a cabo en formato híbrido y en otros casos, tendrán más relevancia sus componentes digitales. Al punto, que será viable para las empresas mantenerse a disposición de los clientes los 365 días del año.

De cualquier forma, las tecnologías de vanguardia han estado presentes desde hace tiempo en el ámbito de las ferias. Esto es evidente en las sofisticadas opciones de muchos expositores al demostrar sus productos y servicios, más aún en los eventos tecnológicos.

Aparte de lo anterior, todos los recursos digitales que impulsen la optimización de las relaciones entre expositores y visitantes de las ferias deben tenerse en cuenta. Además, todas las herramientas tecnológicas que hagan más fluidas las gestiones y agilicen procesos como las inscripciones, el control de acceso, los aforos y el data management, continuarán presentes en las venideras convocatorias.

En este sentido, la crisis del Covid-19 debe motivar a las empresas a considerar la implementación de la omnicanalidad y otras opciones para hacer impacto en una mayor cantidad de clientes potenciales. Esto es viable alternando las acciones presenciales en el transcurso de los eventos con recursos virtuales, antes, durante y después de la feria.

Tecnologías como la Realidad Aumentada o la Inteligencia Artificial tendrán una presencia cada vez más determinante en las exposiciones. Cabe recordar que estos encuentros son plataformas de lanzamiento para las innovaciones. Por esta razón, las compañías aprovechan su carácter experiencial para presentar al mercado sus prototipos o más recientes desarrollos.

Aún gana la tradición

Sin embargo, las ferias presenciales siguen siendo las preferidas por la mayoría de las organizaciones, ya que generan contactos face to face y posibilidades de establecer networking. Pero también producen mayor confianza entre clientes y empresas, lo que incrementa las posibilidades de cerrar ventas. Las ferias de alcance internacional demuestran ser tan efectivas como otros canales y alternativas de marketing. Estos escenarios son ideales para testar nuevos productos y explorar mercados alternativos, cuando las compañías se lanzan a la exportación y a la internacionalización.

La importancia de la calidad de datos en ferias y eventos

¿Os imagináis el resultado de una mala gestión y despreocupación  por la calidad de datos en ferias y eventos post-pandemia? Si la información sobre prospectos y clientes ganados durante estas exhibiciones híbridas (presenciales/virtuales) es captada y manejada en forma inapropiada, ¿qué ocurriría?

La participación en estos eventos, en cualquier formato, implica una inversión considerable en proporción a los resultados esperados. Una gestión de datos inadecuada y el descuido en la calidad de los datos obtenidos de clientes captados y potenciales aumentan el riesgo de perder oportunidades de negocios y generar una experiencia de cliente negativa. Ya sea porque hay errores en nombres, información de contacto, inexactitud o falta de exactitud en direcciones. En consecuencia, el ROI puede no ser el esperado.  

MyDataQ, la solución de calidad de datos en ferias y eventos

Si tu empresa es una organizadora de eventos o si participa constantemente en ferias y exposiciones, necesitas una herramienta eficaz para la calidad de datos. De acuerdo a este objetivo, DEYDE pone a tu disposición MyDataQ, una solución informática de desarrollo propio para el tratamiento automatizado en la especialidad de normalización, deduplicación y enriquecimiento de bases de datos. Este sistema actúa sobre los datos de:

  • Identificación: nombre, apellidos, ID, etc.
  • Localización: direcciones postales, enriquecimiento con variables geográficas, XY, AGEB, sociodemográficas y tipologías de consumo.
  • De contacto: teléfonos y direcciones de correo electrónico.

DEYDE es una empresa tecnológica con 20 años de experiencia en el desarrollo de soluciones de calidad de datos y con presencia en más de 35 países y la gestión de más de 300 clientes la ubican entre las organizaciones más confiables en su especialidad.

¡Contáctanos y solicita una demostración de MyDataQ!

Open data, la iniciativa mundial para acceso libre a los datos

open data

Open data o datos abiertos es una iniciativa que busca resolver la contradicción sobre la accesibilidad de información de interés público y las razones para no facilitar su acceso. En concreto, la generada por investigaciones y procedimientos financiados con fondos de los Estados y, por ende, de los ciudadanos. Aunque también promueve la apertura a determinados datos provenientes de entes privados y particulares igualmente relevantes para la gente.

Pero, ¿de qué trata exactamente el open data? ¿Cuáles son las bases de este movimiento y a qué tipos de datos podríamos tener acceso con un mínimo de condiciones? Sigue leyendo y encontrarás las respuestas a éstas y otras cuestiones.

Concepto y características del Open Data

En principio, nos referimos a open data como una práctica y un movimiento, y de eso se trata. En síntesis: es una iniciativa de alcance mundial cuyo propósito es poner a disposición de las personas determinados tipos de datos sin ninguna restricción. Es decir, sin limitaciones o mecanismos de control como los derechos de autor y patentes, entre otras. Este principio ético la conecta con otras corrientes como el código abierto (open source), el software libre y el acceso libre (open access).

Open Data es una iniciativa global que busca poner a disposición de las personas todos los datos que pueden ser relevantes para ellos, sin restricción, limitaciones o mecanismos de control.

De acuerdo con esto, un dato abierto es aquella información accesible y reutilizable para cuyo acceso, empleo y redistribución no se requieren permisos ni condiciones. A modo de complemento, es pertinente lo acotado por la Open Knowledge Foundation sobre el uso de esta clase de datos. Y es que dicha información sólo estaría sujeta al requerimiento de atribución (citar la fuente) y a ser dispuesta tal como es suministrada.

Sus ocho principios clave

Pero, ¿qué es y qué no es open data? ¿Qué aspectos caracterizan este tipo de datos? En función de establecer las propiedades que identifican a los datos abiertos, el grupo de trabajo del Gobierno Abierto de Datos aportó ocho principios clave. Según esto, los datos pueden denominarse abiertos si son:

  1. Completos. Es decir, los datos abiertos están siempre disponibles y no están sujetos a limitaciones válidas de seguridad, privacidad o privilegios. Teniendo en cuenta esta premisa, los gobiernos deberían poner a disposición del ciudadano toda la información que captan o producen. Por su parte, el ciudadano ejercerá su derecho a reutilizarlos en interés propio o para el bien común.
  2. Primarios. En esencia, los datos se extraen de la fuente, con el mayor nivel de detalle posible, sin agregados o modificaciones. A lo que debemos añadir que tal fuente debe ser confiable y las referencias, identificables.
  3. Oportunos. Los open data están disponibles en el momento que sean requeridos, para conservar su valor.
  4. Accesibles. En efecto, la información debería estar disponible para cualquier usuario, sin ningún tipo de distinción y pueden emplearse para una amplia cantidad de propósitos.
  5. Procesables en dispositivos informáticos. Los datos están estructurados de manera que permitan su procesamiento automatizado.
  6. No condicionados. En otras palabras, no es necesario registrarse en alguna plataforma para tener acceso a dichos datos.
  7. No tienen propietarios. Esto es: la información está disponible en un formato que no está bajo el control exclusivo de ninguna entidad.
  8. Sin licencia. Los datos abiertos no están limitados por derechos de autor, marca registrada, patente o protección del secreto comercial. Aunque es válido permitir restricciones razonables de privacidad, privilegios y seguridad.

Tipos de open data

Dependiendo de su naturaleza y de los propósitos de su aplicación, los open data pueden clasificarse en: culturales (obras y bienes culturales), científicos, finanzas (información sobre la administración del erario público por parte del gobierno y el mercado bursátil), estadísticas, climáticos, medio ambiente y transporte (horarios, rutas…)

Fuentes de los datos

En realidad, los open data provienen de fuentes muy diversas. Pero con el propósito de ofrecer una clasificación más genérica, mencionaremos tres ámbitos relevantes que generan y aportan (o no) datos abiertos.

La investigación científica

La iniciativa de ofrecer al público acceso abierto a datos científicos tiene su principal antecedente en la creación del sistema World Data Center, con motivo del Año Geofísico Internacional (1957-1958).​ En efecto, la obtención y manejo de datos científicos abiertos es mucho más antigua que Internet. Sin embargo, disponer de esta poderosa red de comunicación ha dado un giro considerable a la divulgación de investigaciones y resultados en dicho campo. Obviamente porque la publicación de éstos ahora es mucho más rápida y económica.

Administración pública

Sin duda, la disponibilidad de información sobre la gestión de las administraciones gubernamentales en forma de open data por parte del público es positiva. Por un lado, ayuda a mejorar las políticas públicas en diversos aspectos como los servicios básicos y la educación. Asimismo, promueve la transparencia y la participación de los ciudadanos en las decisiones que afecten su calidad de vida.

El sector privado

Es cierto que muchos datos divulgables generados por empresas privadas podrían incrementar el conocimiento y el bienestar de la gente. Por ejemplo, en el sector farmacéutico son frecuentes las investigaciones y pruebas que producen conocimientos genéricos que beneficiarían a tantos seres humanos.

El Open Data y la Open Knowledge Foundation

En perspectiva, la iniciativa mundial del Open Data encontró un importante respaldo en la Open Knowledge Foundation, organización sin ánimo de lucro creada en 2004. Como lo indica su denominación, esta fundación promueve la difusión del conocimiento abierto en toda su amplitud. De allí que también respalde proyectos basados en open content, open source, software libre y otras corrientes relacionadas. Uno de ellos, es el CKAN, un registro del software empleado por varios gobiernos para gestionar sus datos abiertos.

Igualmente, el referido ente cuenta con una infraestructura de alojamiento para proyectos semiindependientes. Del mismo modo, estableció un servicio de gestión de proyectos conocido como KnowledgeForge, ejecutado en la plataforma KForge. Esta iniciativa permite a diversos grupos de trabajo disponer de un espacio para gestionar proyectos relacionados con open knowledge.

La importancia de la calidad de datos

En función de garantizar el suministro de información fiable y completa, las organizaciones que generan open data deben cuidar la calidad de sus datos. A los efectos, DEYDE ofrece a las administraciones públicas, instituciones científicas y entes privados, soluciones enfocadas en la normalización, deduplicación y enriquecimiento de datos. Todas ellas probadas por clientes exigentes y de prestigio que forman parte de nuestros casos de éxito.

Póngase en contacto con DEYDE para obtener asesoría especializada sobre cómo mejorar la calidad de los datos de su empresa o institución.