Resumen
En los próximos 10-15 años, los medios sociales y la tecnología nos permitirán unirnos en entornos virtuales
verdaderamente inmersivos, estas realidades sociales híbridas (RSH) permitirán que la interacción social sea realizada en
una forma sin precedentes. Los humanos serán asistidos por agentes físicos y digitales, cuyos comportamientos podrían
ser indistinguibles. En este contexto, los retos se originan en la interacción entre los bots inteligentes con los humanos, pero
también en la creciente necesidad de detectar intenciones o contenidos poco fiables o maliciosos. La posibilidad de
fundamentar las opiniones en una realidad innegable y en un entorno verificable de confianza se reducirá, mientras que los
humanos y los agentes virtuales podrán fabricar pruebas o información (incluso en tiempo real) en apoyo de una
información que podría ser falsa o errónea. Además, al igual que hacen hoy en día los sistemas de recomendación y los
sistemas de publicidad dirigida basados en el comportamiento en línea, los agentes que controlan las interacciones y los
flujos de información en las futuras RSH tendrán aún más ventaja para explotar las debilidades de los sujetos que
interactúan en dichos entornos. De este escenario, en el que no es fácil distinguir en que se puede confiar o no, ya que todo
puede ser construido, surge el objetivo general de guardIA: Garantizar una interacción social más segura y sofisticada en
los futuros espacios sociales de realidad híbrida aprovechando las capacidades de la IA. Para ello se propone desarrollar
un Guardián Personal Virtual (GPV) basado en técnicas de Inteligencia Artificial, integrado en la RSH, que interaccione con
el usuario final, sensibilizándolo y concienciándolo sobre posibles intentos maliciosos y prácticas manipuladoras en la RSH
y mitigando así sus efectos.