Van a ser el futuro; serán tendencia en las próximas décadas; pueden tener aspecto humanoide y hasta resultar entrañables, mas los robots «sociales» tienen una cara oculta y pueden suponer abundantes peligros para la privacidad y para la seguridad. ¿Dejarías acceder a un ignoto a tu edificio? ¿y si ese ignoto fuera un robot?. ¿Dejarías a un ignoto hacerte una fotografía? ¿y si te lo solicita un robot?

La compañía de ciberseguridad Kaspersky y especialistas de la Universidad de Gante (Bélgica) efectuaron una investigación y verificaron que los robots pueden extraer de forma eficaz información sensible de las personas que se «fían» de ellos. Verificaron además de esto que la presencia de un robot puede tener un enorme impacto en la voluntad de bastantes personas, que se inclinan, por servirnos de un ejemplo, por dejarles acceder a un edificio.

Poco a poco más, las industrias y los hogares confían en la automatización y en el empleo de sistemas robóticos capaces de prestar ciertos servicios «sociales», y diferentes estudios apuntan que estos van a estar muy extendidos a mediados de siglo, si bien solo entre las clases con un mayor poder adquisitivo. Por el momento, la mayor parte de esos sistemas están en fase de investigación académica mas este estudio ha profundizado en el impacto social y los riesgos potenciales de los robots en su interacción con las personas.

El trabajo efectuado en la Universidad de Gante se centró en el impacto producido por un robot desarrollado y programado para interaccionar con personas usando «canales» humanos como el lenguaje o bien la comunicación no verbal; se hicieron pruebas con cincuenta personas y los especialistas verificaron de qué manera los robots eran capaces de introducirse en zonas limitadas o bien extraer información sensible de esas personas.

Experiencias
Uno de esos robots «sociales» se situó cerca de una entrada de seguridad a un edificio de empleo mixto (residencias y oficinas) al que solo se puede entrar por medio de puertas con lectores de acceso y, si bien la mayor parte de las personas rechazaron la entrada a la máquina, el 40 por ciento sí satisficieron su solicitud y le dejaron el paso.

Cuando el robot se situó como repartidor de pizza y manteniendo una caja de una famosa marca de comida a domicilio, la mayor parte de las personas sí dejó su acceso y no cuestionó su presencia o bien las razones por las cuales precisaba entrar al edificio. La segunda una parte del estudio se centró en intentar conseguir información personal a través de un robot que entablaba una charla amistosa, mas los estudiosos verificaron que este era capaz de conseguir información personal a un ritmo de un dato por minuto.

Los estudiosos corroboraron con lo que la «confianza» en los robots, y sobre todo en los robots «sociales» capaces de interaccionar con los humanos, es real y que, en consecuencia, estos podrían emplearse para convencer a la gente a fin de que haga algo o bien a fin de que revele información sensible; cuanto más «humano» más poder tiene para convencer y persuadir.

Potencial inconveniente de seguridad
El británico David Emm, estudioso primordial en seguridad de la compañía Kaspersky, ha manifestado que «efectivamente» hay un potencial inconveniente de seguridad relacionado con el empleo de robots. En declaraciones a Efe, Emm ha observado que los robots absolutamente pertrechados están aún en fase de investigación «pero ya hay un número creciente de dispositivos inteligentes desplegados en el hogar».

«Las personas están muy desamparadas cuando se hallan en un ambiente familiar; tienden a pasar por alto el potencial de la información sensible que dichos dispositivos tienen e inclusive llegan a compartir con ellos datos que seguramente no estarían prestos a introducir en un formulario físico o bien a subir a una red social», apunta este especialista en ciberseguridad.

A su juicio, esto se acentuará cuando ese asistente familiar sea un robot humanoide y se acabe transformando en un «amigo» pues el desarrollador de esa máquina puede diseñarla a fin de que recoja información sensible, como ocurre ya -ha alertado- con los altífonos inteligentes. Va a hacer falta, conforme David Emm, considerablemente más investigación para asegurar de manera contundente que la gente confiará más en los robots que en las personas, mas los estudios ya conocidos revelan que hay un nivel de confianza significativo «y seguramente suficiente a fin de que los atacantes del futuro sientan que merece la pena buscar vulnerabilidades».

Como toda la tecnología, los robots pueden ser «armas de doble filo», puesto que, en frente de las ventajas que pueden reportar a las personas, está la posibilidad de que accedan a datos valiosísimos para las organizaciones y empresas con fines de tipo comercial «y para los delincuentes», ha corroborado Emm. Ha apuntado además de esto que todas y cada una de las máquinas, y asimismo los robots, serán programados por humanos y que esa programación siempre y en toda circunstancia se puede hacer con cortes «a menos que se adopten medidas positivas para disminuir al mínimo esos peligros y su impacto cuando se desplieguen».

David Emm ha advertido de que esto ya ocurre en nuestros días con los sistemas de aprendizaje automático (la capacidad que tienen muchas máquinas o bien dispositivos de aprender de la experiencia) y se ha mostrado persuadido de que va a ocurrir asimismo en el futuro con los hurtos absolutamente pertrechados.

Fuente: ABC.es

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *