Machine learning - Observatorio Ciberderechos y Tecnosociedad

Bienvenidos al Observatorio de Ciberderechos y Tecnosociedad

Contáctanos

Machine learning

Metodologías de la inteligencia artificial como el aprendizaje automático (machine learning), el aprendizaje profundo (deeep learning) y el aprendizaje de refuerzo (reinforcement learning) son la base de la economía digital.  A través de estos modelos, el software que aprende por sí mismo a partir de los datos. El machine learning presenta nuevos paradigmas jurídicos, comunicacionales, sociales y culturales. Los temas más polémicos giran en torno al perfilamiento de las personas físicas, la vigilancia masiva, el impacto en la protección de datos personales, las armas de ciberguerra, los carros automátas, entre otros.

Esta sección pretende vigilar los procesos de regulación ética y jurídica de la inteligencia artificial, con un énfasis especial en la justicia predictiva, la conducta predictiva, el reconocimiento facial, los deep fakes, las fake news y muchos otros temas de actualidad.

Índice de artículos sobre machine learning

ChatGPT: ¿puede la inteligencia artificial reemplazar al humano?

Autor: Luis Enríquez

Coordinador del Observatorio de Ciberderechos y Tecnoociedad de la Universidad Andina Simón Bolívar.

Enlace:  chatgpt puede la inteligencia artificial reemplazar al humano/

Decisiones judiciales asistidas

Autor: Christian Montañez (Colombia). Ingeniero en sistemas por la Universidad de Cundinamarca, Abogado por la Universidad La gran Colombia, Master en derecho informático por la Universidad Externado de Colombia y estudiante de Maestría en Derecho en la Universidad Andina Simón Bolivar.

Enlace:  decisiones judiciales asistidas

Informe sobre el estado de madurez ciudades inteligentes y sostenibles en Ecuador

Informe del Ministerio de Telecomunicaciones y Sociedad de la Información.

Descargar aquí: Informe sobre el estado de madurez ciudades inteligentes y sostenibles ecuador

Marco jurídico internacional

Artificial Intelligence Act UE

EU AI Act

El Acta de Inteligencia Artificial (AIA) de la Unión Europea es un marco regulatorio que tiene como objetivo promover la confianza y la seguridad en el desarrollo y uso de la IA en la UE. El AIA fue adoptado por el Parlamento Europeo y el Consejo de la UE en junio de 2023 y entrará en vigor en 2024.

El AIA establece un sistema de clasificación de los sistemas de IA en función de su nivel de riesgo. Los sistemas de IA de alto riesgo, como los que se utilizan en la toma de decisiones automatizadas que afectan a las personas, deben cumplir con requisitos más estrictos. Estos requisitos incluyen la realización de una evaluación de impacto de la IA, la adopción de medidas para mitigar los riesgos y la transparencia en el funcionamiento del sistema.

Los sistemas de IA de bajo riesgo, como los que se utilizan en la recomendación de productos o servicios, están sujetos a requisitos menos estrictos. Estos requisitos incluyen la información sobre el funcionamiento del sistema y la posibilidad de que las personas se opongan a las decisiones tomadas por el sistema.

El AIA también establece un conjunto de principios generales que deben cumplir todos los sistemas de IA. Estos principios incluyen la seguridad, la transparencia, la no discriminación, la privacidad y la sostenibilidad.

El AIA es un marco normativo ambicioso que tiene como objetivo garantizar que la IA se desarrolle y utilice de manera ética y responsable en la UE. El AIA es un paso importante para la UE en su ambición de convertirse en un líder mundial en la IA.

Principales características del AIA:

  • Clasificación de los sistemas de IA en función de su nivel de riesgo
  • Requisitos más estrictos para los sistemas de IA de alto riesgo
  • Requisitos menos estrictos para los sistemas de IA de bajo riesgo
  • Conjunto de principios generales que deben cumplir todos los sistemas de IA

Impacto del AIA:

  • El AIA tiene el potencial de aumentar la confianza en la IA en la UE
  • El AIA puede ayudar a garantizar que la IA se desarrolle y utilice de manera ética y responsable
  • El AIA puede ayudar a la UE a convertirse en un líder mundial en la IA

Cap AI Oxford

CapAICAP-AISSRN-id4064091

CapAI es un centro de investigación de inteligencia artificial (IA) fundado en 2022 por el University College de Oxford. Su objetivo es desarrollar IA que sea beneficiosa para la sociedad y que esté alineada con los valores humanos.

El centro está dirigido por el profesor Michael Osborne, un experto en IA. La plantilla de CapAI incluye a investigadores de todo el mundo, con experiencia en una amplia gama de campos de la IA.

CapAI se centra en cuatro áreas de investigación:

  • IA segura y fiable: CapAI trabaja para desarrollar IA que sea segura y fiable, y que no se utilice para fines dañinos.
  • IA beneficiosa para la sociedad: CapAI investiga cómo la IA puede utilizarse para resolver problemas sociales, como la pobreza, el hambre y el cambio climático.
  • IA alineada con los valores humanos: CapAI trabaja para garantizar que la IA esté alineada con los valores humanos, como la justicia, la igualdad y la libertad.
  • IA abierta y ética: CapAI cree que la IA debe ser abierta y ética, y que debe estar disponible para todos.

CapAI ha publicado una serie de estudios sobre la IA, incluyendo un informe sobre los riesgos y beneficios de la IA. El centro también ha participado en la creación de una serie de herramientas y recursos para ayudar a las personas a entender y utilizar la IA de forma segura y responsable.

AI Procurement in a Box: Workbook

AI Procurement in a Box

AI Procurement in a Box: Workbook es una guía práctica publicada por el Foro Económico Mundial para ayudar a los gobiernos y a las organizaciones del sector público a repensar su enfoque de la contratación pública de tecnologías de inteligencia artificial (IA).

El libro de trabajo se centra en tres temas principales:

  • Cómo definir el problema que se quiere resolver con la IA: El primer paso es definir claramente el problema que se quiere resolver con la IA. Esto ayudará a identificar la solución adecuada y a evaluar las propuestas de los proveedores.
  • Cómo escribir una solicitud de propuesta (RFP) efectiva: La RFP debe ser clara y concisa, y debe describir claramente el problema que se quiere resolver, los resultados que se esperan y los criterios de evaluación.
  • Cómo evaluar las propuestas de los proveedores: Al evaluar las propuestas de los proveedores, es importante tener en cuenta su experiencia, su capacidad técnica y su comprensión del problema que se quiere resolver. También es importante asegurarse de que el proveedor pueda cumplir con los requisitos éticos y de responsabilidad.

El libro de trabajo también incluye una serie de herramientas y plantillas que pueden ayudar a los gobiernos y a las organizaciones del sector público a implementar las directrices.

Aquí hay algunos de los consejos clave del libro de trabajo:

  • Centrarse en los resultados: Al contratar IA, es importante centrarse en los resultados que se quieren lograr, en lugar de en la tecnología específica. Esto ayudará a garantizar que se obtenga la solución más adecuada para las necesidades específicas de la organización.
  • Ser transparente: El proceso de contratación de IA debe ser transparente y abierto. Esto ayudará a garantizar que la organización obtenga el mejor valor para su dinero y que la solución elegida sea ética y responsable.
  • Colaborar con los expertos: La IA es una tecnología compleja, por lo que es importante colaborar con expertos en el campo. Esto ayudará a garantizar que la organización tome decisiones informadas y que la solución elegida sea adecuada para sus necesidades.

WEF_AI_Procurement_in_a_Box_Workbook_2020
AI Procurement in a Box es una guía valiosa para los gobiernos y las organizaciones del sector público que están pensando en contratar IA. El libro de trabajo proporciona información clara y concisa sobre cómo definir el problema, escribir una RFP efectiva y evaluar las propuestas de los proveedores.

Propuesta de resolución sobre procesos de decisión automática B9-0000/2019 (Unión Europea - 2019)

Expansión de una propuesta que expone la necesidad de regulación en procesos decisionales automáticos con un enfoque a la protección de consumidores.
Descargar documento: Resolución del Parlamento Europeo sobre procesos de decisión automática

Ordenanza que regula el reconocimiento facial en la Ciudad de San Franciso (California - 2019)

El Estado de California (Estados Unidos) ha sido pionero en varias iniciativas jurídicas relativas a la protección de la privacidad. La presente enmienda regula de manera estricta diversos aspectos de la tecnología de reconocimiento facial, la vigilancia masiva y los derechos y libertades de los residentes.

Más información: Ordenanza que prohíbe el reconocimiento facial en la ciudad de San Francisco

Biometric Information Privacy Act (Illinois - 2008)

La primera regulación jurídica en los Estados Unidos respecto a tecnologías y tratamiento de datos biométricos. Está regulación ha afectado notablemente a las tecnologías de reconocimiento facial para vigilancia.

Más información: Illinois Biometric Information Privacy Act

Innovación legal en Ecuador: una realidad inevitable

Autor: Diego Alvarez - Abogado especializado en Nuevas Tecnologías, Protección de Datos y Consultor en Innovación Legal y Legaltech.

Enlace: innovación legal en ecuador una realidad inevitable