/ miércoles 10 de enero de 2024

¡Eureka! | Inteligencia Artificial y Reglamentación

Hoy la Inteligencia Artificial (IA) se ha convertido en un tema de agenda. Diversas posturas se han presentado, algunas positivas y otras de preocupación; ante las innovaciones tecnológicas y humanas, lo más importante es ocuparse de los temas, reflexionarlos y abordarlos. Desde hace más de 50 años se acuñó el término de Inteligencia Artificial, por el entonces ingeniero en informática John McCarthy.

El año pasado, el Parlamento Europeo estableció la primera normativa sobre Inteligencia Artificial como parte del programa de estrategia digital para regular la IA y con ello aportar mejores condiciones de desarrollo, uso de la tecnología y aplicaciones innovadoras. Esta primera normativa ubica obligaciones para proveedores y otras para usuarios.

Lo anterior se dividió principalmente en función de los niveles de riesgo de la IA; los de alto riesgo están ubicados como los que afectan negativamente a la seguridad, a los derechos fundamentales y los cuales han sido divididos en dos categorías. La primera categoría son los sistemas que se utilicen en productos como los juguetes, la aviación, los automóviles, los dispositivos médicos, etc.

La segunda categoría de alto riesgo son diversos ámbitos como la identificación biométrica que consiste en las características físicas y fisiológicas como la huella digital, el rostro, la retina, el iris, la geometría de la mano o de los dedos, la piel, entre otras; aquí también se ubica la categorización de personas físicas.

Está la gestión y explotación de infraestructuras críticas, es decir, de las plantas de agua, de luz, de energía nuclear, entre otras, las cuales son esenciales en la seguridad de una ciudad, un estado o un país. Otros de alto riesgo son la educación y la formación profesional; el empleo, la gestión de trabajadores y el acceso al autoempleo.

También se agregaron al alto riesgo la aplicación de la ley; la gestión de la migración, el asilo y el control de fronteras; temas esenciales para los seres humanos. La IA tiene que apoyar a la evolución en el bienestar de la humanidad y debe emplearse para lograr el desarrollo sustentable de la humanidad establecido por la Organización de las Naciones Unidas (ONU).

La Inteligencia Artificial que se ha considerado como de riesgo inaceptable, es decir prohibida, son la manipulación cognitiva del comportamiento de personas o grupos vulnerables; la clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales y finalmente, los sistemas de identificación biométrica en tiempo real y a distancia, los cuales sólo son válidos cuando se persigue una situación judicial. ¡Seguiremos compartiendo este tema!

Aprovecho para felicitar a nuestra máxima casa de estudios, la Universidad Autónoma de San Luis Potosí (UASLP), hoy 11 de enero, por los 101 años de aniversario de su Autonomía, por supuesto mencionar al Rector, Dr. Alejandro Zermeño Guerra.

Estoy en los siguientes espacios, correo: lizyuaslp@gmail.com; Instagram: @lizynavarrozamora; X: @LizyNavarro; Facebook: Lizy Navarro.

Hoy la Inteligencia Artificial (IA) se ha convertido en un tema de agenda. Diversas posturas se han presentado, algunas positivas y otras de preocupación; ante las innovaciones tecnológicas y humanas, lo más importante es ocuparse de los temas, reflexionarlos y abordarlos. Desde hace más de 50 años se acuñó el término de Inteligencia Artificial, por el entonces ingeniero en informática John McCarthy.

El año pasado, el Parlamento Europeo estableció la primera normativa sobre Inteligencia Artificial como parte del programa de estrategia digital para regular la IA y con ello aportar mejores condiciones de desarrollo, uso de la tecnología y aplicaciones innovadoras. Esta primera normativa ubica obligaciones para proveedores y otras para usuarios.

Lo anterior se dividió principalmente en función de los niveles de riesgo de la IA; los de alto riesgo están ubicados como los que afectan negativamente a la seguridad, a los derechos fundamentales y los cuales han sido divididos en dos categorías. La primera categoría son los sistemas que se utilicen en productos como los juguetes, la aviación, los automóviles, los dispositivos médicos, etc.

La segunda categoría de alto riesgo son diversos ámbitos como la identificación biométrica que consiste en las características físicas y fisiológicas como la huella digital, el rostro, la retina, el iris, la geometría de la mano o de los dedos, la piel, entre otras; aquí también se ubica la categorización de personas físicas.

Está la gestión y explotación de infraestructuras críticas, es decir, de las plantas de agua, de luz, de energía nuclear, entre otras, las cuales son esenciales en la seguridad de una ciudad, un estado o un país. Otros de alto riesgo son la educación y la formación profesional; el empleo, la gestión de trabajadores y el acceso al autoempleo.

También se agregaron al alto riesgo la aplicación de la ley; la gestión de la migración, el asilo y el control de fronteras; temas esenciales para los seres humanos. La IA tiene que apoyar a la evolución en el bienestar de la humanidad y debe emplearse para lograr el desarrollo sustentable de la humanidad establecido por la Organización de las Naciones Unidas (ONU).

La Inteligencia Artificial que se ha considerado como de riesgo inaceptable, es decir prohibida, son la manipulación cognitiva del comportamiento de personas o grupos vulnerables; la clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales y finalmente, los sistemas de identificación biométrica en tiempo real y a distancia, los cuales sólo son válidos cuando se persigue una situación judicial. ¡Seguiremos compartiendo este tema!

Aprovecho para felicitar a nuestra máxima casa de estudios, la Universidad Autónoma de San Luis Potosí (UASLP), hoy 11 de enero, por los 101 años de aniversario de su Autonomía, por supuesto mencionar al Rector, Dr. Alejandro Zermeño Guerra.

Estoy en los siguientes espacios, correo: lizyuaslp@gmail.com; Instagram: @lizynavarrozamora; X: @LizyNavarro; Facebook: Lizy Navarro.