viernes, 26 abril 2024 |

Actualizado a las

15:10

h CEST

14.1 C
Madrid

11 riesgos de la inteligencia artificial: ¿cuáles son y qué se está haciendo para regularlos?

Puntuación media: 3 | Votos: 2

Los productos con inteligencia artificial han resultado ser soluciones prácticas y efectivas para una gran cantidad de tareas, antes, exclusivamente humanas. Sin embargo, hay una serie de riesgos de la inteligencia artificial para los cuales no hay mecanismos de respuesta. Evaluemos juntos estos problemas de la inteligencia artificial a los que nos enfrentamos.

¿Qué es la inteligencia artificial? ¿Qué es IA? es un sistema de cómputo que tiene como objetivo realizar actividades que se consideran exclusivas de la mente humana, como el aprendizaje autónomo, el razonamiento y la creación de nueva información útil a partir de datos históricos o experiencia. Si hacemos un resumen de la inteligencia artificial podremos ver que los beneficios que aporta son incluso indispensables en muchas áreas. Sin embargo, muchos de los riesgos de la inteligencia artificial son algo para lo que no estamos del todo preparados. Por eso, el día de hoy analizaremos a detalle estos problemas de la inteligencia artificial como forma de prevención.

Tipos de inteligencia artificial:
Características, aplicaciones y clasificación de la inteligencia artificial actual

Leer artículo

La no inteligencia artificial

¿Para qué se creó la inteligencia artificial? La IA se creó con la intención de poder emular el funcionamiento del cerebro humano o al menos inspirarse en su capacidad de razonamiento para aprender y desarrollarse. Esto, con la finalidad de crear automatismos que liberaran a los humanos de las tareas pesadas y optimizaran procesos.

La inteligencia artificial moderna no es del todo inteligente, al menos no como pensamos que los es. Algunos de sus sistemas pueden ser burlados si se sabe cómo funcionan y pueden llegar a ser inefectivas cuando se enfrentan a un escenario anómalo, que de alguna manera escapa de los parámetros que han aprendido. No son una mente humana detrás de un ordenador.

Esto invita a los expertos a evaluar el balance de beneficios y riesgos de la nanotecnología, la conducción autónoma, las operaciones asistidas y demás aplicaciones que involucran la seguridad de los seres humanos.

Propiedades emergentes no intencionadas

En el 2017 Alice y Bob, dos inteligencias artificiales de tipo chatbots de Facebook diseñados para resolver solicitudes puntuales y negociar el precio de determinados artículos con humanos y bots, comenzaron a comunicarse en un lenguaje inentendible entre ellos.

Esto no quiere decir que desarrollaron su propio idioma, como se pensaba, sino que idearon una forma más efectiva (aunque menos intuitiva) de hacer sus transacciones.

Sin embargo, estas propiedades “emergentes” inesperadas de la tecnología artificial pueden llegar a ser un riesgo potencial si no se ajustan bien las reglas y los parámetros iniciales.

Legislaciones y regulaciones

Entre las desventajas de la inteligencia artificial destaca el escaso marco normativo universal o regulación específica que se aplique para todos los países, considerándolas un vacío legal en gran parte del mundo. La ley no está preparada para enfrentar casos constantes donde esté involucrada una inteligencia artificial. Es responsabilidad de las autoridades prepararse ante estos posibles escenarios.

El desarrollo de la ética

Uno de los principales puntos en contra de la inteligencia artificial es que las máquinas no tienen ética. En cambio, los humanos, la necesitan para guiarse en este mundo e interactuar entre ellos. Esta disonancia en la actuación puede convertirse en un riesgo en múltiples escenarios.

Dado que la ética es un estudio complejo y profundo inherente a los seres humanos, es necesario decidir en humanidad un marco normativo para el desarrollo consiente de las AI.

La paradoja de la asistencia constante

Go, Siri y Alexa son grandes ejemplos cotidianos de inteligencia artificial. Aunque existen muchas de ellas trabajando desde las sombras en la red, como las AI de Facebook y TikTok que planifica contenido con base en los gustos de los usuarios y los recopilan para mejorar las sugerencias. Los mecanismos que pilotan vehículos autónomos son también grandes ejemplos.

Dado que las inteligencias artificiales de soporte responden ante cualquier solicitud de manera inmediata, al completo servicio de las personas, se produce un efecto adverso natural en la educación y el trato respetuoso del individuo, especialmente en los niños que entienden a las AI como inteligentes, pero las tratan de forma inhumana, algo que luego llevan a sus otras relaciones.

Este nuevo efecto se está enfrentando a través de la enseñanza dirigida a niños y jóvenes, en busca de minimizar las consecuencias de la inteligencia artificial en el futuro.

Vulnerabilidad a la manipulación

Los diferentes elementos de la inteligencia artificial son manipulables, por ende, vulnerables a la intrusión y la modificación. No es fácil, pero tampoco imposible.

Los desarrolladores trabajan en nuevas formas de cifrar y proteger a estos núcleos neurales para que puedan reconocer las amenazas externas y bloquear los intentos de sabotaje.

Uso y manipulación de datos

En la ejecución de las tareas de cualquier inteligencia artificial existe un proceso importante de recolección y uso de datos. Mucha de la información resultante puede ser personal.

Un caso evidente sería el almacenamiento de datos biométricos, el estudio de las costumbres o gustos de los usuarios, los historiales de búsqueda y los datos de navegación (GPS).

Crear políticas y procedimientos de seguridad que velen por la privacidad de estos datos es un punto de lucha clave en el desarrollo de AI menos riesgosas.

Impacto en el empleo

Tal como sucedió en su momento con la revolución industrial, una de las principales desventajas de inteligencia artificial es su choque contra las facetas del ser humano en torno al empleo. Muchos de los trabajos manuales más convencionales han sido reemplazados por software de toma de decisión.

En este caso, la mejor herramienta para enfrentarse al inminente cambio social es concientizar a las personas e incentivar los procesos de adaptación.

Autodeterminación y autonomía humana

La inteligencia artificial es sumamente eficiente para tomar decisiones objetivas, pero estas no deben estar por encima de la autonomía o poder de elección de los seres humanos. Para evitar este riesgo, es clave que los desarrolladores prioricen el rol humano sobre las decisiones de las máquinas.

Defectos en el algoritmo

Todo desarrollador, ya sea una empresa o un particular, debe ser responsable de sus algoritmos. Un mal diseño o un error puede traer consecuencias devastadoras para la vida humana, la información personal o la salud de un negocio. La máquina no es responsable de sí misma, porque no es consciente de qué está haciendo.

Los seres humanos, en consecuencia, no pueden liberar a sus AI a la sociedad como si fueran un gran experimento, sino que deben ser probadas en entornos controlados desafiantes para garantizar su estabilidad.

Mal uso

La inteligencia artificial es increíblemente buena para desarrollar aplicaciones que faciliten la vida de los seres humanos. Pero no se debe olvidar que son estos últimos quienes las ponen en uso y diseñan sus parámetros o reglas. En pocas palabras, esta herramienta no está exenta de un mal uso por parte del usuario. Aplicarse para robar información, analizar productos financieros y demás.

Hoy por hoy, es clave que las legislaciones de cada nación a la vanguardia en el desarrollo de estas inteligencias digitales creen un marco regulatorio para su uso.

Los riesgos de la inteligencia artificial son evidentes y están relacionados en su mayoría a las implicaciones éticas que este avance tecnológico y el rol de la humanidad a su alrededor. Claro que su objetivo no es desplazar a las personas y hay muchas ventajas que equilibran hasta cierto punto los problemas de la inteligencia artificial. Pero es imperativo que desarrolladores y legisladores trabajen en conjunto para diseñar un marco regulatorio que controle su aplicación.

  • London, E. (2021). Artificial Intelligence -The Real Dangers To Our Labour Market and Civilisation-: Artificial Intelligence, mirages, and the urgent need to ethically . . . world in danger of economic collapsing. Independently published.
  • Neri, H., & Cordeiro, V. D. (2020). The Risk Perception of Artificial Intelligence. Lexington Books.
  • புருனோக.G.B., & Mascarenhas, D. A. B. (2020). Artificial Intelligence and Natural Stupidity: Organic Eugenics. Independently published.

Cita este artículo

Pincha en el botón "Copiar cita" o selecciona y copia el siguiente texto:

Cedeño, Carlos. (2022, 02 noviembre). 11 riesgos de la inteligencia artificial: ¿cuáles son y qué se está haciendo para regularlos?. Cinco Noticias https://www.cinconoticias.com/riesgos-de-la-inteligencia-artificial/

¿Te ha gustado este contenido?

Valóralo y ayúdanos a mejorar

Puntuación media: 3 | Votos: 2

Carlos Cedeño
Carlos Cedeño
Licenciado en Ingeniería de Sistemas por la Universidad de Oriente (UDO), en Cumaná, Venezuela. Especialista en marketing y SEO.
Cinco Noticias / Ciencia & Tecnología / 11 riesgos de la inteligencia artificial: ¿cuáles son y qué se está haciendo para regularlos?

No te pierdas...

Lo último

DEJA UNA RESPUESTA

Deja tu comentario
Escribe tu nombre