¿Las redes sociales sirven para prevenir ataques?

¿Las redes sociales sirven para prevenir ataques?

Las masacres que suelen ser moneda corriente en los medios de comunicación de las naciones del primer mundo, muchas veces son anticipadas por sus autores en sus propias redes sociales.

En un lapso de pocos días, Estados Unidos sufrió varias masacres que se cobraron la vida de muchas personas inocentes y fueron perpetrados por ciudadanos que actuaron solitariamente. Este tipo de ataques se han vuelto una noticia recurrente desde hace años en los países más desarrollados, y no son pocos los victimarios que suelen anticipar sus pensamientos y acciones en las redes sociales. En este contexto, el presidente estadounidense, Donald Trump, recientemente interpeló a las empresas de redes sociales para que desarrollen “herramientas que puedan detectar a los atacantes masivos antes de que actúen”. El debate quedó abierto y los especialistas discuten sobre si es posible conocer las emociones de una persona solamente viendo lo que publica en su Twitter, Facebook o Instagram. Es decir, saber si es posible conocer de antemano las tendencias suicidas, depresivas de alguien o descubrir un potencial atacante que pueda llegar a producir una masacre. Los especialistas coinciden en que la inteligencia artificial existente en la actualidad todavía no tiene esa capacidad de predicción. De hecho, actualmente se están utilizando este tipo de herramientas para detectar individuos con depresión que podrían convertirse en suicidas, tomando como base lo que postean en sus redes sociales, pero los niveles de error son muy altos y se trata de una tecnología que no puede entender un contexto porque hace un análisis matemático del lenguaje. Los humanos entendemos el lenguaje de otra manera, identificamos conceptos y los incluimos en marcos más amplios de significados. Al respecto, la autora del libro “Artificial Unintelligence” (Inteligencia Artificial), Meredith Broussard, indica que “es bastante probable que cualquier algoritmo desarrollado para detectar hipotéticamente un potencial atacante terminaría identificando personas con problemas mentales u otros hablando sandeces, porque las computadoras no pueden entender los matices o los chistes”. Un estudio científico, que fue publicado en la revista Science en el 2011, analizó más de 2 millones de tweets de personas de 84 países y concluyó que los habitantes de cualquier lugar del mundo tenemos un patrón de estado anímico que es común: nos levantamos de buen ánimo, luego esa energía va cayendo a lo largo de nuestro día y vuelve a remontar momentos antes de acostarnos a la noche. Existen otros análisis realizados por universidades y gobiernos en este sentido, pero los especialistas son escépticos porque consideran que los estudios de este tipo son muy limitados y aunque los mensajes de las redes sociales pueden mostrar algo sobre nuestro estado de ánimo, los análisis están centrados en personas activas que no representan al ciudadano tipo. “Un tuit puede reflejar el estado de ánimo, pero no hasta el punto de poder decir cómo se siente alguien en función de lo que escribe. Incluso para un profesional de la psicología o de la psiquiatría conocer el estado de ánimo de una persona es algo muy complicado. Yo diría más bien que las redes nos muestran determinados patrones de conducta”, explica Diego Redolar, neurocientífico y profesor de los Estudios de Ciencias de la Salud de la UOC (Universitat Oberta de Catalunya, España). Asimismo, existe un dilema ético sobre el uso de la inteligencia artificial predictiva para conocer con antelación los comportamientos humanos. Importantes emrpesas usan esta tecnología para desentrañar los sentimientos de los usuarios respecto a sus marcas. “Están haciendo muchos (estudios) empresas como Google o Facebook con fines comerciales. Quieren saber qué producto deben ofrecer a cada persona e incluso el momento exacto en el que más le va a interesar. Tienen acceso a los datos porque los usuarios dan su permiso al aceptar las condiciones de estos servicios”, detalla el mismo Redolar.