" /> ¿Sueña Urtubey con represores cibernéticos? – La Vanguardia Digital | La Vanguardia Digital

¿Sueña Urtubey con represores cibernéticos?

Si ya se cuenta con la tecnología para proyectar potenciales embarazos ( o cualquier otra “anomalía social”), ¿es ético que tratemos de prevenir esas situaciones pero no de cambiar las condiciones socioeconómicas que las generan?

“Con la tecnología vos podés prever cinco o seis años antes, con nombre, apellido y domicilio, cuál es la niña, futura adolescente, que está en un 86 por ciento predestinada a tener un embarazo adolescente” (Juan Manuel Urtubey, gobernador de Salta, 10 de abril de 2018).

Las bromas y memes que coparon las redes sociales tras la llamativa expresión del gobernador Urtubey –la más frecuentada: su rostro reemplazando al de Tom Cruise en “Minority Report”– eran obvios para quien había visto esa película y ahora, azorado, leyera sus declaraciones. Pero mientras arreciaban las burlas, el diario Clarín se ocupó de defender a quien aparece como uno de sus candidatos para 2019 (el “sale o sale” del establishment argentino: que cada opción con chances de competir contra el Gobierno, sea lo más parecida posible al propio Gobierno. Remember 2015). Así, apenas un día después de las declaraciones de cientificción de Urtubey, el “gran diario argentino” le contó al país que el inverosímil plan se encuentra en marcha desde el año pasado, e incluso que “ya detectamos a 492  niños con 88% de probabilidad de abandono escolar. Y también 397 niñas con un 88% de probabilidad de que queden embarazadas en un futuro cercano”, según detalló el ministro Carlos Abeleira, a cargo de “Primera Infancia”.

NO ERA CIENCIA FICCIÓN

Claro que no es ciencia ficción. Cualquier persona que tenga un mínimo interés en las cuestiones científico-tecnológicas lo sabe. Sobran ejemplos. El más reciente: el escándalo de Facebook y los datos proporcionados a una empresa (Cambridge Analytica, CA) que, mediante modelos computacionales y psicología cognitiva, pudo construir un perfil de la personalidad de cada uno de los 250 millones de votantes en las elecciones de EE.UU. para uso de la campaña de Donald Trump. Y antes, en el “Brexit”, el referéndum en Gran Bretaña sobre su salida de la Unión Europea. Y todo eso sin espiar a nadie ni hacer nada ilegal (por ahora): alcanza con ordenar la información que cada persona entrega a las redes sociales –de manera voluntaria aunque con poca (o ninguna) conciencia de estar haciéndolo-: cada “me gusta”, cada noticia compartida, cada acción mía en las redes construye esa información que, procesada por especialistas, puede permitir predecir mi conducta.

¿Se trata de un delirio paranoico propio de los autores de ciencia ficción? Y sí: “Black Mirror” ya está aquí. Aunque pueda parecerle extraño a personas poco familiarizadas con los avances de la ciencia (según Marcelino Cereijido, el grueso de la población argentina sufre “analfabetismo científico”), estas tecnologías están entre nosotros desde hace un tiempo. De hecho, sus manifestaciones ya son cotidianas: lo vemos cada vez que el celular nos propone calificar un lugar que acabamos de visitar, o cuando recibimos ofertas comerciales vinculadas a una búsqueda que recién realizamos en Google.

“Black Mirror” ya está aquí: lo vemos cada vez que el celular nos propone calificar un lugar que acabamos de visitar, o cuando recibimos ofertas comerciales vinculadas a una búsqueda que recién realizamos en Google.

El modelo que utilizó la empresa CA fue creado en la Universidad de Cambridge. Según explican sus propios creadores, con menos de cien “me gusta” de un usuario de Facebook pueden revelar –con bajo margen de error– su orientación sexual y su afinidad política. Con algunos más, pueden ir mucho más lejos: les encanta presumir diciendo que con sólo 10 “me gusta” el modelo “conoce” mejor a una persona que sus compañeros de trabajo; con 70 “me gusta”, mejor que sus amistades, y con 300 mejor que su pareja. Para esta disciplina pragmática –tan lejos de nuestras psicologías atormentadas por causas y por explicaciones “profundas”– “conocer mejor a una persona” significa, simplemente, predecir sus acciones, anticipar sus respuestas ante determinados estímulos.

Y dado que cada vez que hacemos algo en las redes, vamos dejando “huellas digitales”, si alguien se ocupa de grabarlas, recolectarlas y analizarlas, tendrá en sus manos una información que potencialmente vale oro para distintos fines. Por ejemplo, podrían pronosticar a quién votarían. Así, cualquier candidato con suficiente dinero podría disponer de una base de datos de millones de personas entre las cuales podría diferenciar a quienes jamás lo votarían, y apuntar a todos los otros, detectando perfiles valiosísimos: los potenciales votantes, para empezar, pero también los que decididamente activarían a su favor, o quiénes estarían dispuestos a colaborar aportando fondos, e incluso aquellos que podrían decidirse a favor de su candidatura en función de determinados mensajes o propuestas.

PREGUNTITAS

La película de Steven Spielberg Minority Report (“El informe de la minoría”), que protagonizó Tom Cruise pocos años atrás, popularizó una historia escrita en 1956 por Philip K. Dick, uno de los autores más celebrados de la ciencia ficción mundial. Allí, la policía de un futuro cercano puede evitar los crímenes que se cometerán, usando unos mutantes que tienen “visiones” de esos sucesos y arrestando a los potenciales autores. La trama de la historia es que no siempre los mutantes coinciden en sus visiones: uno de ellos “ve” un desenlace diferente, donde el futuro criminal desiste de su intención. Por eso se llama “el informe de la minoría”. Esa posibilidad hace más inquietante la situación: ¿qué pasa en ese caso?

El cuento de Dick es mucho más breve que el film. Y plantea toda una serie de paradojas que pueden parecer ociosas para algunas personas, pero son atrapantes para quienes aman la filosofía: si se impide el crimen ¿se puede considerar a alguien culpable de algo que no sucedió? Si una persona “sabe” que asesinará, ¿puede tener una segunda opción? ¿O no hay manera de escapar a los hilos del “destino”? Pero ¿es que hay “destino”? Y si lo hay ¿es un solo destino posible? ¿No se puede modificar? ¿Y quién tiene derecho a hacerlo? ¿La policía? ¿El Estado? ¿Una empresa privada que conoce y gestiona esos datos?

El año pasado se anunció que en China y por encargo de la policía, empresas especializadas en tecnologia de la información desarrollaron herramientas de inteligencia artificial para identificar y arrestar a posibles criminales. La principal empresa involucrada es Cloud Walk, especializada en reconocimiento facial. El software desarrollado permite acceder al sistema de videovigilancia y cruzar datos con todos los demás rasgos de la persona que el Estado ya posee: el comportamiento en línea de las personas, sus transacciones financieras, trabajos y hobbies. Eso es lo que viene, en el país capitalista en vías de ser el más poderoso del mundo, paradójicamente gobernado por un Partido Comunista.

El año pasado se anunció que en China y por encargo de la policía, empresas especializadas en tecnologia de la información desarrollaron herramientas de inteligencia artificial para identificar y arrestar a posibles criminales.

Entre las aplicaciones que China utiliza desde hace tiempo para aprovechar la tecnología, aprobó una legislación que obliga a las compañías telefónicas a crear un tono especial de llamada para morosos: aquel ciudadano con deudas bancarias, de impuestos o de servicios llevará un ringtone especial, y además quien lo llame recibirá un mensaje de alerta sobre la falta de compromiso de pago de esa persona.

La ONG Human Rights Watch cuestionó estos avances y alertó sobre el objetivo de las autoridades chinas de crear una base de datos a nivel nacional “sin protección, transparencia o medidas que garanticen la privacidad”. Con los antecedentes del gobierno chino en materia de derechos humanos, la forma en que se usan y se usarán las tecnologías de este tipo generan muchas suspicacias.

PRECRIMEN Y CAPITALISMO

Hay otro texto de Philip K. Dick, menos conocido por el gran público pero mucho más relevante en su carrera como escritor. Se trata de la novela corta ¿Sueñan los androides con ovejas eléctricas?, de 1968, que dio origen a su vez, a otra legendaria película de ciencia ficción: Blade Runner, de Ridley Scott, protagonizada por Harrison Ford. En ese mundo (claramente distópico) la inteligencia artificial tiene rostro humano: se crearon copias de humanos destinados al trabajo esclavo, a los que se llama “replicantes”. Pero se rebelan: resulta que lograron, no se sabe cómo, tener conciencia. Por eso la policía crea un cuerpo especial (los “Blade Runners”) dedicado a identificarlos y “pasarlos a retiro”.

Mientras algunas personas se burlaban de Urtubey y lo comparaban con las aeronaves que el ex presidente Menem anunciara más de veinte años atrás, otras personas, mejor informadas, advertían sobre el riesgo que implica profundizar la línea de acción que propone (y que ahora sabemos que puso en marcha desde hace medio año) el gobernador de Salta, en convenio, nada menos que con Microsoft.

Mientras algunas personas se burlaban de Urtubey y lo comparaban con las aeronaves que el ex presidente Menem anunciara más de veinte años atrás, otras personas, mejor informadas, advertían sobre el riesgo que implica profundizar la línea de acción que propone.

¿Hace falta mucho más para especular con que, del mismo modo, con buenos datos, ya se podría prever quién –potencialmente– matará o violará? De nuevo: no es ciencia ficción. Con bases de datos completas y complejas, y con software creado para ese fin, ese “PreCrime” ya es mucho más que una promesa distópica. Como en China.

Pablo Capanna, en su memorable ensayo Ciencia ficción, utopía y mercado (Cántaro, 2007), escribió que “la ciencia ficción configuró el imaginario del siglo XX. Sin su presencia no se explicaría por qué se ha gastado más en explorar el espacio que en combatir la miseria, o que nos hayamos acostumbrado a creer de modo fatalista que todo lo que se inventa merece ser llevado a la práctica. Para bien o para mal, el mundo en que vivimos es la materialización de sus fantasías.”

OBJECIONES

¿Están los políticos como Urtubey pensando no solo en prevenir embarazos adolescentes, sino también en represores cibernéticos? Nadie lo sabe. Pero en el cambio de paradigma que expresa a nivel nacional el macrismo, y a niveles provinciales gobernadores como Urtubey, sería apenas un pasito más en la misma dirección.

Por eso algunas personas mejor informadas, integrantes del Observatorio de Violencia Contra las Mujeres y la Multisectorial de Mujeres de Salta, redactaron un documento en el que afirman, entre otras cosas: “El embarazo en la adolescencia guarda en sí una gran complejidad, el abordaje de esta realidad no puede reducirse al cruce de variables y la realización de proyecciones de ‘potenciales’ embarazos como resultado de condiciones socioeconómicas en las que están insertas las adolescentes. No hace falta buscar en el futuro las ‘predicciones’ de un software sino en el presente y nuestro pasado reciente y en cuanto se expresan como un continuo de ausencia de políticas públicas”.

Otro grupo de personas bien informadas, el Laboratorio de Inteligencia Artificial Aplicada (LIAA) de la UBA, planteó objeciones similares, pero en términos mucho más  específicos: “Las técnicas de inteligencia artificial son poderosas y demandan responsabilidad por parte de quienes las emplean. En campos interdisciplinarios como éste, no debe perderse de vista que son sólo una herramienta más, que debe complementarse con otras, y de ningún modo reemplazan el conocimiento o la inteligencia de un experto, especialmente en campos que tienen injerencia directa en temas de salud pública y de sectores vulnerables”.

ÉTICA Y “REPLICANTES”

La tecnología para cruzar variables y proyectar potenciales embarazos (o cualquier otra “anomalía” social) ya está acá. Por eso la discusión es ética, es filosófica. Y obliga a realizar preguntas: ¿Es razonable que tratemos de prevenir los crímenes o las situaciones anómalas, pero no de cambiar las condiciones socioeconómicas que los generan? ¿No es ésa una manera consciente, sofisticada, de garantizar la continuidad de la injusticia?

No es una exageración de este que escribe. Lo enuncia, orondo, el ministro salteño: “Buscamos cambiar la forma de trabajo. Siempre se trabaja en cuestiones estructurales y económicas, pero la realidad nos muestra que tenés chicas de 11 años embarazadas. El cambio debe pasar por dejar las cuestiones estructurales y trabajar en la persona. Es un cambio de paradigma”.

Dejar las cuestiones estructurales, trabajar en cada persona.

¿Ésa es la derecha que viene: un capitalismo racional, que utilizará todas las herramientas para prever cada caso, sin cambiar ninguna de las relaciones estructurales que los generan? ¿Asistencialismo potenciado con Big Data e Inteligencia Artificial, para tratar los casos extremos de desigualdad social? ¿Y un nuevo “Gran Hermano” que ya está operando en China para tratar el conflicto con la ley penal? ¿La ciencia y la tecnología al servicio de la felicidad capitalista, en versión “amable” en Occidente, y un poco menos amable en Oriente?

Pablo Capanna dice que “la creencia de que la tecnología es capaz de resolverlo todo es el único dogma que quedó al margen de los debates ideológicos, y hoy sigue estando en el eje del discurso único”. Y agrega que la ciencia ficción pudo sobrevivir al ocaso de la modernidad, pero al precio de renunciar a su conciencia crítica. Nunca pareció más claro que en estos días.

Américo Schvartzman

Américo Schvartzman

Director de La Vanguardia. Licenciado en Filosofía. Periodista. Autor de "Deliberación o dependencia. Ambiente, licencia social y democracia deliberativa" (Prometeo 2013).

Sin Comentarios

No se permiten comentarios