AI is law

· 581 palabras · Lectura de 3 minutos

Esta es una continuación de la entrada al blog titulada «Code is law» en el que explicaba que los ingenieros están creando un mundo donde la profesión legal podría volverse innecesaria. Aunque la abogacía se considera un ejercicio intelectual valioso, su futuro en algunas áreas es incierto. Los abogados actúan como intermediarios en transacciones que requieren un tercero de confianza, pero la tecnología blockchain ha permitido realizar transacciones sin necesidad de estos intermediarios, poniendo en riesgo la relevancia de los abogados y notarios.

Ahora que está tan de boga la inteligencia artificial, esta tendrá un papel cada vez más relevante para regular la conducta humana. En la plataforma Mercado Libre, cuando se registra un producto de especialidad que la inteligencia artificial desconoce, automáticamente lo da de baja. Se tiene que solicitar la intervención de un ser humano para que verifique que el artículo cumple con las normas de publicación y que fue un error darlo de baja.

Con motivo de la caída de los sistemas windows por la actualización que realizó Crowdstrike, el usuario Zach Vorhies en X.com compartió la anécdota de Jordan Peterson. Él es un psicólogo clínico canadiense, profesor de psicología y autor conocido por sus opiniones controvertidas sobre la cultura, la política y la psicología. Resulta que en Google siempre ha habido fallos o «bugs» que a pesar de conocerse su existencia, son tolerados y aprovechados en beneficio de quienes los conocen. Una persona creó una cuenta de correo similar a la de Peterson aprovechándose de este «bug» y comenzó a mandar correo basura o «spam» a sabiendas que la inteligencia artificial borraría su cuenta a pesar de tener más de una década de antigüedad.

La Ley de Inteligencia Artificial de la Unión Europea considera como actividades de alto riesgo algunas en las que ya se está utilizando la IA, por ejemplo; los servicios financieros pueden evaluar la solvencia de una persona y aprobar o rechazar solicitudes de crédito basándose en datos predefinidos y algoritmos. Estas decisiones se toman sin intervención humana, basadas estrictamente en los parámetros del código. En monitoreo y seguridad; la IA puede identificar comportamientos sospechosos y alertar a las autoridades de inmediato. Estos sistemas operan según reglas preestablecidas en su programación, regulando el comportamiento en espacios públicos o privados.

Los sistemas que se usan para eliminar contenido inapropiado en las redes sociales (como discurso de odio, violencia o contenido sexual) también representan un riesgo para la libertad de expresión. Esto trae a colación la discusión sobre la prohibición de publicar pezones de mujer en Facebook. Si la foto se hacía solamente sobre el pezón era extremadamente difícil la clasificación de un pezón femenino de uno masculino. En respuesta a las críticas, Facebook hizo algunas revisiones a su política. Permitió más excepciones, como fotos relacionadas con actos médicos y de salud, y algunas formas de arte.

El debate sobre este tema continuará, tal vez con este título o con el de «code is law» debido, principalmente, a la dificultad para establecer una clara distinción entre ambos ámbitos cada vez más impregnados uno de otro.

Referencias:

  1. Jorge Ikeda. (2021, 20 de marzo). Code is law. Recuperado de http://jorgeikeda.com/blog/2021-03-20-code-is-law/

  2. Vorhies, Z. (2024). [Publicación en X.com]. Recuperado de https://x.com

  3. Ley de Inteligencia Artificial de la Unión Europea. (s.f.). Reglamento sobre la inteligencia artificial. Recuperado de https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX%3A52021PC0206

  4. Facebook. (s.f.). Normas comunitarias sobre desnudos y actividad sexual de adultos. Recuperado de https://www.facebook.com/communitystandards/adult_nudity_sexual_activity

Advertencia: Un sistema de inteligencia artificial fue utilizado para traducir, resumir o mejorar la redacción de este artículo.