Secciones El Dínamo

cerrar
Cerrar publicidad
Cerrar publicidad
14 de Febrero de 2019

John Atkinson, doctor en Inteligencia Artificial: “El siguiente paso es que las máquinas sean conscientes”

A su juicio, esto permitiría mejorar los servicios que se realicen a futuro, aunque observa que hay cierto recelo al respecto.

Por
Compartir

John Atkinson fue uno de los expositores del último Congreso del Futuro que se celebró en Santiago. En esa oportunidad, el doctor en Inteligencia Artificial y académico de la Universidad Adolfo Ibáñez expuso un tema que ha sido su objetivo de estudio: cómo dotar de consciencia a los robots. Es decir, que tengan la capacidad de reflexionar sobre sí mismos y así puedan entender por qué hacen lo que hacen.

Según Atkinson, esto permitiría mejorar los servicios que se realicen a futuro, aunque observa que hay cierto recelo al respecto. “Hay un tema laboral que genera mayor sensibilidad”, reconoce en entrevista con El Dínamo, pero, dice, “cuando empezó, esto la idea no era reemplazar al humano, sino servir como apoyo, pero algunas personas no lo han visto así. Hay que recordar que los robots no interactúan solos, interactúan con los humanos”.

-A esta altura, ¿qué tan mapeados estamos por las tecnologías?

-El mapeo es súper amplio. Pero puedes ver qué tan trackeado estás por la redes sociales en base a lo que uno hace explícitamente, eso es una cosa. Y lo otro es lo que uno hace no explícitamente, por ejemplo, cómo expresar tus emociones, si te estás sintiendo cómodo o feliz con una noticia o publicidad que está apareciendo en tele.

-¿O sea que no sería fantasioso imaginar que un televisor inteligente pueda sacar información en base a nuestras expresiones faciales al ver publicidad?

-De hecho, se hace, porque alguno televisores tienen una webcam instaladas donde hay un registro de tus gestos faciales. Ahora, yo creo que en algún momento va a existir algo más inalámbrico, porque lo que hay ahora es medio invasivo: te obliga a que tengas algo conectado. Yo lo hice en mi laboratorio, conectamos sensores y captábamos las señales de lo que tú estabas percibiendo, las procesábamos y las convertíamos en información útil. Pero eso es invasivo.

Lo interesante del mapeo es que el sistema del computador capta lo mío, las redes sociales, el trackeo, la información cerebral. Y la otra es al revés, porque está mapeada información cerebral a tal punto que yo podría enviar señales para hacerte percibir cosas que no son, o para incluirte emociones que no son. Es como un poco la película Inception, pero a nivel de las ondas cerebrales. Podremos hacer ‘inception’ cerebrales a nivel de marketing o a nivel político. Entonces en el futuro, el mapeo será tal que incluso no me extrañaría que casi no te des cuenta que si tú estas en el monitor, no te des cuenta de lo que estás viendo es porque lo estás percibiendo conscientemente o porque alguien lo está produciendo. El truco de todo esto es hacer toda la tecnología lo más invisible posible. En el tema cerebral hay mucho neurocientífico y físico matemático que no sólo están trabajando en entender las señales, sino también a qué zonas van. En términos médicos, podrían intervenir a una persona que tiene tal síndrome y hacerle sentir o percibir cosas que antes no podía. En ese sentido es súper bueno, pero muchas de estas cosas el objetivo inicial no ha sido civil, sino militar.

-¿Es inevitable entrar a esta dinámica? 

-Un impedimento para ir más allá, no es lo tecnológico, es lo legal. Son regulaciones, porque podría tener el trackeo de todo esto y hacer tales cosas, pero mucha de esa información es confidencial. Y de hecho ya están empezando a aparecer voces en todo el mundo que dicen que se debe regular. Un ejemplo extremo son los chinos, que han llegado hasta a monitorear en tiempo real las salas de un colegio para establecer los estados de ánimo de los niños. La tecnología está, pero estás invadiendo la privacidad.

-¿Es real que los teléfonos inteligentes escuchan nuestras conversaciones cotidianas y en base a esa información nos “ofrece” contenido o productos?

-Esa parte no sé. Pero lo que sí sé es que todo dispositivo está activado. Es decir, técnicamente los dispositivos están habilitados para entregar información en cualquier momento. Otra cosa diferente es que nos de la impresión de que esté apagado, que eso es más una cosa de diseño. En realidad están funcionando igual.

-Ahora hay muchos dispositivos que se usan para reconocer identidades: presencia de estudiantes en la sala de clases, quiénes son las personas que evaden en el Transantiago, etc. ¿Es positivo que seamos tan indentificables por las instituciones?

-Depende en que lado estés parado. Porque si hablas desde el punto de la legalidad, esto es lo peor, estás sacando información que tú no haz concedido que accedan. Por otro lado, en términos de productividad y beneficios económicos, están logrando hacer tareas que antes no se podían: detectar cuánta gente hay en tal lugar, si alguien se saltó el torniquete del la micro, etc.  Si yo lo veo desde un punto de vista tecnológico, es súper beneficioso, pero cae en el borde de la privacidad.

-En el Congreso del Futuro hablaste sobre ir hacia una conciencia artificial. ¿De qué modo eso ayudaría al ser humano?

-Hay varias miradas sobre la consciencia. Si lo circunscribo al área de la ingeniería y de cómo repercute en la vida, hay una cuestión súper práctica. Uno puede pensar la consciencia humana como la capacidad que tiene uno para hacer una reflexión de sí mismo y conocer qué es lo que uno hace y por qué lo está haciendo. Tú te preguntarás si la tecnología actual lo hace y no, ninguna. No por ahora.

-¿Algún ejemplo que sería beneficioso para las personas?

-Un ejemplo de impacto: un diagnóstico médico donde te dicen que tienes cáncer, con un 95% de certezas. Si fuera en términos humanos, seguramente pedirías una segunda opinión. Los entes aún actúan como caja negra, toman buenas decisiones, pero no son capaces de reflexionar por sí mismos, no saben por qué están haciendo lo que hacen. Y tú lo que pedirías, ante una situación tan sensible como esa, es que sea consciente, en el sentido que tenga control en sus estados emocionales internos para, por ejemplo, ser capaz de explicarte. El siguiente paso es que las máquinas sean más conscientes, para que, por ejemplo, nos expliquen, que razone exactamente porqué está haciendo lo que está haciendo para yo poder entenderlo.

-¿Con la consciencia artificial serían entes autónomos del humano?

-La autonomía  se habla de cuando tú tienes un control de un dispositivo sin intervención humana. Ahora si le agregas autonomía, más emociones, más conciencia entonces logra un sistema inteligente que  sea capaz de reflexionar sobre sí mismo. Un caso es el vehículo que se maneja solo, sin control humano, pero que no es consciente.

-¿Cómo observas la percepción del humano respecto al avance irremediable de la inteligencia artificial?

-Si lo vemos desde la dimensión laboral en muchos aspectos, quizás por falta de información y en otras porque será parte de la realidad, obviamente es una amenaza. ¿Por qué? Porque está automatizando tareas que no son rutinarias, porque si lo fueran, las haría un computador tradicional, pero aquí hablamos de tareas que requieren harta expertise humana. Hay un tema laboral que genera mayor sensibilidad. Ahora, no es tan trágico tampoco. Cuando han habido grandes revoluciones tecnológicas siempre ha pasado lo mismo. Cuando empezó, esto la idea no era reemplazar al humano, sino servir como apoyo, pero algunas personas no lo han visto así. Hay que recordar que los robots no interactúan solos, interactúan con los humanos.

Léenos en Google News

Notas relacionadas

Deja tu comentario

Lo más reciente

Más noticias de Educación