Desde que existe la humanidad, el hombre siempre ha perseguido hacer las cosas cada vez con menos esfuerzo. Esto dicho así, parece muy frívolo, pero es la realidad.
En el camino recorrido hasta la obtención de un logro es donde se encuentra el esfuerzo realizado, que es el que evita que luego haya de ser reproducido por los usuarios o beneficiarios del invento.
La Inteligencia Artificial (IA) es más de eso, pero en versión ciencia, donde confluyen la lógica matemática y la informática.
Este post quiere incidir en lo que la IA viene a aportar, y prefiero ser positivo e interpretarlo como algo que viene a sumar y no a restar. La reflexión debe ser, siempre, el primer ejercicio que las personas debemos realizar ante cualquier evento al que nos enfrentemos.
Alan Turing, matemático considerado el padre de la IA, se planteó la siguiente cuestión: “la pregunta no es si las máquinas piensan, sino si lo hacen mejor que los humanos”.
Machine Learning y Deep Learning
El machine learning (aprendizaje de la máquina) y el deep learning (aprendizaje profundo) son dos conceptos que están ligados a la IA, y que nos sorprendieron antes que esta última.
El machine learning consiste en el aprendizaje de las máquinas (ordenadores) por sí mismas gracias al análisis de datos que realizan, así como la identificación de maneras de actuar o patrones, lo que las lleva a predecir comportamientos sin que tenga que intervenir el hombre a partir del desarrollo de algoritmos genéricos. Es decir, es la ciencia por la que los ordenadores aprenden a partir de los datos.
Esto nos resulta muy conocido en tanto en cuanto todos somos objeto de las máquinas cuando estas nos hacen seguimiento, por ejemplo, en las páginas web comerciales a las que accedemos, proponiéndonos posteriormente objetos o productos que pueden ser de nuestro interés por la información que tales máquinas han obtenido de nosotros y, posteriormente, han analizado.
Por el contrario, el deep learning es algo más “profundo”, como corresponde a su traducción. Y es que en este caso la máquina <ordenador> se aproxima al cerebro humano en el modo de tratar la información que recibe, y todo ello a través de redes de neuronas artificiales, lo que consigue una predicción de mayor precisión con respecto a la lograda en el machine learning.
En sí, lo que se pretende conseguir por medio de estas ciencias es obtener el mayor número de datos o cantidad de información para actuar posteriormente sobre ella. Pero esto significa que también se actúa sobre el ser humano del que proviene la información o los datos, lo que por un lado es positivo pero por otro puede resultar peligroso ya que disponer de muchísima información puede, en ocasiones, llevar a tener el control y el poder sobre algo o alguien. Y este es el verdadero peligro que estas tecnologías entrañan.
Aplicación a Compliance de Deep Learning y Machine Learning
Si nos centramos en el Compliance, y sobre todo en la conducta ética, honesta y de buenos principios más allá de lo estrictamente referido al Cumplimiento normativo, encontramos que estas ciencias, sobre todo el deep learning, pueden llegar a resultar peligrosas y producir riesgos considerables, sobre todo si se utilizasen sin tener cautela y prudencia.
No cabe duda de que la famosa frase de Hobbes “el hombre es un lobo para el hombre” tiene más profundidad a medida que avanza la humanidad. Y es que todos los avances, además de tener su parte positiva de progreso, innovación y aporte a la humanidad, también conllevan su parte “amarga” que se traduce en inquietud, incertidumbre y peligro para el ser humano.
Y aquí es donde entra lo que, desde mi punto de vista, debería guiar toda aquella programación del software (algoritmos) que va a servir de motor de las máquinas u ordenadores destinados a procesar infinidad de datos <el petróleo de nuestro tiempo> con el fin de mejorar la vida de las personas, y no lo contrario: me refiero a la ética.
La ética es el eje central de estos motores algorítmicos, sin ella no puede concebirse un software neutro, que no tienda a inclinarse hacia un lado u otro en perjuicio de un tercero (persona, empresa, sociedad…). Debe estar involucrada en todo el proceso de recopilación de información, de tratamiento y de conclusiones, pues sólo así las decisiones que puedan derivarse del análisis de los datos así gestionados serán, como mínimo, éticas y respetuosas con las personas.
En el fondo de la cuestión, estamos hablando de los sesgos y de las intenciones partidarias <y partidistas> en la cadena científica, lo que nos conduciría a unas actuaciones con total seguridad injustas. Y la injusticia sería otra consecuencia negativa de una mala aplicación de estas ciencias del progreso, ya que lo que estas persiguen es obtener información para mejorar la vida de las personas y no para lo opuesto, que sería perjudicar.
Podemos imaginar una herramienta basada en IA para identificar riesgos, que estuviera sesgada de tal modo que considerase de manera parcial la evaluación de los mismos desde una perspectiva de probabilidad completamente adulterada, basada en datos elegidos con un criterio subjetivo de quien ha definido el algoritmo con una intención oculta que nada tiene que ver con la transparencia y las mejores prácticas.
Por supuesto, si esto ocurriese, siempre podríamos echar mano del famoso RBA o Risk Based Approach (enfoque basado en el riesgo) y actuar con cautela y prudencia antes de validar los resultados de aquel análisis.
Por esto, entre otras razones, es por lo que tenemos que mostrar confianza en que exista la función de Compliance para, entre otras misiones que alcanza, prevenir sobre riesgos o situaciones que pudieran ocasionar perjuicios para la Organización.
En consecuencia, es importante tener muy presente, en concreto en el ámbito del Cumplimiento, todos los tratamientos de datos y sus reportes a modo de conclusiones y medidas a tener en cuenta para el control de los procesos y, en definitiva, de la actividad empresarial. Cualquier sesgo o indicio sospechoso de discriminación en el proceso o en el resultado debe ser corregido de inmediato.
Es de una relevancia incuestionable llevar a cabo una reflexión y análisis de los propios resultados obtenidos y cerciorarse que estos no ofrecen anomalía o discrepancia alguna con lo que hemos asumido como ético y justo.
Me gustaría concluir con una frase atribuida a Bill Gates, muy al hilo de lo comentado en este post: “La primera regla de cualquier tecnología que se utiliza en una empresa es que la automatización aplicada a una operación eficiente magnificará la eficiencia. La segunda es que la automatización aplicada a una operación ineficiente magnificará la ineficiencia”.
Si quieres conocer más noticias de actualidad sobre Auditoría de Protección de Datos, Gestión de Riesgos y Cyber Compliance, visita nuestro blog.