Resumen
Con los últimos avances en IA, la transición digital que estamos viviendo actualmente es inevitable, y va más allá de una economía y
sociedad digital hacia un futuro de sociedades verdaderamente mixtas de personas y artefactos de IA: es decir, hacia sistemas
sociotécnicos. Nos referimos a automóviles autónomos que interactúan en las calles, robots recolectores de frutas que colaboran entre
ellos y con humanos, etc. Debido a ello, el mayor desafío de esta transición digital es conseguir poner las necesidades y los valores
humanos en el centro del proceso. Garantizar que la IA sea digna de confianza y confiable, que satisfaga las necesidades humanas y
respete los valores humanos, es el enfoque central de VAE.
VAE desarrollará herramientas y tecnologías para construir sistemas conscientes de los valores. Por conscientes de los valores nos
referimos a sistemas que entienden nuestros valores humanos y aseguran que el comportamiento del sistema se rija por esos valores.
Entre los principales desafíos del trabajo propuesto está la especificación e ingeniería de valores, lo que incluye alinear el comportamiento
de los sistemas y dispositivos con los valores que influyen en cuestiones como la toma de decisiones y en el diseño del sistema.
El proyecto se basará y promoverá trabajos en el campo de los sistemas multiagente. Por ejemplo, impulsará el trabajo de los sistemas
normativos vinculando valores y normas, que se utilizarán como medio para garantizar un comportamiento alineado con los valores. Se
basará en tecnologías de acuerdos existentes, como argumentación y negociación, para ayudar a los agentes (humanos y/o software) a
llegar a acuerdos sobre cuáles deberían ser sus sistemas de valores. Se desarrollarán mecanismos de aprendizaje para ayudar a
aprender el sistema de valores preferido de un individuo o un colectivo. El razonamiento simbólico se utilizará para evaluar la alineación
de valores. Los mecanismos de explicación ayudarán a garantizar que el ser humano sea consciente de los valores que influyen en el
comportamiento del sistema. Por último, pero no menos importante, la colaboración con expertos de las ciencias sociales garantizará una
dimensión interdisciplinaria de nuestro trabajo que conectara el desarrollo técnico con sus teorías sobre los valores y la IA ética.
El proyecto demostrará la utilidad de sus herramientas y mecanismos en varios dominios, valuará la aplicabilidad de nuestros
mecanismos basados en valor en campos como protocolos médicos, protocolos de emergencia, redes de ayuda mutua, cooperativas en
el sector agrícola, y resolución de conflictos, entre otros.
El proyecto contribuye al objetivo general de hacer que la IA sea más competitiva al ser más confiable, robusta, guiada por la ética,
explicable y, por lo tanto, confiable. No hace nuevas propuestas de directrices y reglamentos (para los que ya hay un esfuerzo
considerable), sino que avanza en el estado del arte en la tecnología de IA central para que la ética esté integrada en las aplicaciones,
fundamentándola en valores universales, europeos y personales.