Constanza Pasarin, miembro de la mesa legal, ciberseguridad, inteligencia artificial & mujer y tecnología de la ACTI; y asociada de Albagli Zaliasnik (az).
En la actualidad, la Inteligencia Artificial (IA) se ha convertido en un pilar fundamental para el desarrollo y crecimiento de empresas de todas las industrias. El reporte Technology Vision 2023, de Accenture, señala que el total de los ejecutivos chilenos cree que la IA desempeñará un papel clave en las estrategias de sus organizaciones en los próximos 3 a 5 años.
Y aunque su impacto en términos de eficiencia operacional y capacidad de innovación es innegable, surge un conjunto de desafíos éticos y legales que requieren atención especial. En este contexto, el cumplimiento normativo y la ética en IA se presentan como elementos imprescindibles para las organizaciones que buscan prosperar en la era digital.
El cumplimiento normativo, conocido también como “compliance“, se refiere al conjunto de procedimientos y estrategias que las organizaciones emplean para garantizar su actuación de acuerdo a las normas legales vigentes, así como con los estándares éticos y conductuales aplicables a su industria y operaciones. Este aspecto es esencial no sólo porque respeta las disposiciones legales, sino porque favorece la autorregulación de las empresas. Un adecuado compliance permite evitar sanciones como infracciones, multas y hasta penas de cárcel. Pero quizás aún más relevante es su papel en la prevención de daños reputacionales, que pueden llegar a ser devastadores para la vida de una empresa.
El compliance es ahora aún más crucial con la reciente promulgación de la nueva ley de delitos económicos. Esta normativa ha incrementado la responsabilidad y las posibles sanciones, incluyendo penas de prisión, para las personas jurídicas que no cuenten con un modelo efectivo de cumplimiento. Este endurecimiento del marco normativo pone de manifiesto la importancia de una cultura de cumplimiento empresarial.
Paralelamente, la ética en la IA emerge como una pieza indispensable para impulsar los negocios. Los algoritmos y sistemas inteligentes deben ser diseñados y utilizados de tal manera que se evite la discriminación, y se proteja la privacidad de los datos de las personas. Además, se deben tomar medidas para evitar riesgos de ciberseguridad que podrían tener consecuencias perjudiciales tanto para las empresas como para sus clientes.
Es vital entender que la ética no debe limitarse a la tecnología propiamente tal, sino que debe ser una característica inherente a las personas que desarrollan y utilizan estos sistemas de IA. Ello implica que las empresas deben fomentar una cultura de responsabilidad y transparencia, asegurándose de que sus stakeholders comprenden y respetan los principios éticos que deben guiar el desarrollo y uso de la IA.
Este debate sobre la necesidad de un equilibrio entre la regulación y ética en la IA surge en un momento en que se discute la necesidad de una regulación específica en la materia. Se han realizado esfuerzos para actualizar la Política Nacional de Inteligencia Artificial, con un enfoque especial en reforzar el aspecto ético de la tecnología, labor que cuenta con el apoyo de organizaciones internacionales como la UNESCO.
En última instancia, una organización que se preocupa por el compliance, que es transparente en sus operaciones y que se esfuerza por evitar sesgos en la IA, logrará posicionarse como una entidad “confiable”. Esta confianza puede resultar clave para que un negocio logre escalar y sea bien recibido por el público y el mercado. El desarrollo de los sistemas, la autorregulación y la ética son tan esenciales como la tecnología en sí misma. No sólo se trata de estar a la vanguardia tecnológica, sino también de operar de manera responsable y con respeto a la sociedad en su conjunto.
Columna disponible en Diario Sustentable, 16 de agosto de 2023.