Explora I+D+i UPV

Volver atrás Proyecto

INGENIERIA DE VALORES EN SISTEMAS DE IA: HERRAMIENTAS PARA LA TOMA DE DECISIONES BASADAS EN VALORES

Institut Universitari Valencià d'investigació en Intel·ligència Artificial

Compartir
Año de inicio

2022

Organismo financiador

AGENCIA ESTATAL DE INVESTIGACION

Tipo de proyecto

INV. COMPETITIVA PROYECTOS

Responsable científico

Botti Navarro Vicente Juan

Resumen

Con los últimos avances en IA, la transición digital que estamos viviendo actualmente es inevitable, y va más allá de una economía y sociedad digital hacia un futuro de sociedades verdaderamente mixtas de personas y artefactos de IA: es decir, hacia sistemas sociotécnicos. Nos referimos a automóviles autónomos que interactúan en las calles, robots recolectores de frutas que colaboran entre ellos y con humanos, etc. Debido a ello, el mayor desafío de esta transición digital es conseguir poner las necesidades y los valores humanos en el centro del proceso. Garantizar que la IA sea digna de confianza y confiable, que satisfaga las necesidades humanas y respete los valores humanos, es el enfoque central de VAE. VAE desarrollará herramientas y tecnologías para construir sistemas conscientes de los valores. Por conscientes de los valores nos referimos a sistemas que entienden nuestros valores humanos y aseguran que el comportamiento del sistema se rija por esos valores. Entre los principales desafíos del trabajo propuesto está la especificación e ingeniería de valores, lo que incluye alinear el comportamiento de los sistemas y dispositivos con los valores que influyen en cuestiones como la toma de decisiones y en el diseño del sistema. El proyecto se basará y promoverá trabajos en el campo de los sistemas multiagente. Por ejemplo, impulsará el trabajo de los sistemas normativos vinculando valores y normas, que se utilizarán como medio para garantizar un comportamiento alineado con los valores. Se basará en tecnologías de acuerdos existentes, como argumentación y negociación, para ayudar a los agentes (humanos y/o software) a llegar a acuerdos sobre cuáles deberían ser sus sistemas de valores. Se desarrollarán mecanismos de aprendizaje para ayudar a aprender el sistema de valores preferido de un individuo o un colectivo. El razonamiento simbólico se utilizará para evaluar la alineación de valores. Los mecanismos de explicación ayudarán a garantizar que el ser humano sea consciente de los valores que influyen en el comportamiento del sistema. Por último, pero no menos importante, la colaboración con expertos de las ciencias sociales garantizará una dimensión interdisciplinaria de nuestro trabajo que conectara el desarrollo técnico con sus teorías sobre los valores y la IA ética. El proyecto demostrará la utilidad de sus herramientas y mecanismos en varios dominios, valuará la aplicabilidad de nuestros mecanismos basados en valor en campos como protocolos médicos, protocolos de emergencia, redes de ayuda mutua, cooperativas en el sector agrícola, y resolución de conflictos, entre otros. El proyecto contribuye al objetivo general de hacer que la IA sea más competitiva al ser más confiable, robusta, guiada por la ética, explicable y, por lo tanto, confiable. No hace nuevas propuestas de directrices y reglamentos (para los que ya hay un esfuerzo considerable), sino que avanza en el estado del arte en la tecnología de IA central para que la ética esté integrada en las aplicaciones, fundamentándola en valores universales, europeos y personales.