Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on pinterest
Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on pinterest

De que hablamos cuando decimos inteligencia artificial

La inteligencia artificial (IA) es un campo de la informática que se enfoca en crear sistemas que puedan realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje, el razonamiento y la percepción.

Hablar de inteligencia artificial (IA) es algo tan sencillo como hablar de máquinas inteligentes. Es decir, máquinas que están programas para llevar a cabo determinadas tareas de forma automática sin la necesidad de que los seres humanos supervisen su trabajo. He aquí el principal y gran temor, ya que el término hace referencia a IA que puede emular la mente humana y tiene capacidades de toma de decisiones similares a las de un ser humano, lo cual incluye reconocer y recordar emociones, y reaccionar en situaciones sociales como lo haría un ser humano.

También es referente señalar las dificultades que puede tener a la hora de resolver problemas inesperados debido a su naturaleza programada. A diferencia de los humanos, no tiene la capacidad de adaptarse a situaciones novedosas y aplicar intuición y creatividad, no puede enfrentar problemas fuera de su ámbito de entrenamiento.

Pero esto tiene su lado B, su lado oscuro, y aquí es donde se debe prestar mayor atención, dado que estamos hablando de Fraudes, imágenes falsas que se dan por reales, burbujas de información y estereotipos sociales son los riesgos de la Inteligencia Artificial.

Entonces resumiendo…

¿Cuál es el verdadero peligro de la inteligencia artificial?
Responsabilidad dudosa, información falsa, amenaza para la ciberseguridad, desmotivación de los trabajadores y generadora de inestabilidad. Estos son algunos de los peligros de los que advierten incluso algunos de los grandes gurús de esta tecnología disruptiva.

La aparición de chatbots como BadGPT o FraudGPT, diseñados para asistir a hackers en actividades fraudulentas, plantea una seria preocupación en el ámbito de la ciberseguridad. Estos chatbots utilizan modelos de IA de acceso abierto disponibles en la web como base para sus operaciones, lo que dificulta su detección.

Se han identificado más de 200 chatbots maliciosos en la dark web, muchos de los cuales utilizan modelos de IA de código abierto modificados mediante «jailbreaks» para superar los controles de seguridad. El «jailbreak» es un proceso mediante el cual se eliminan ciertas restricciones de estos modelos de IA para permitir su uso en actividades no autorizadas. El acceso libre a modelos de IA en la web presenta un desafío adicional, ya que estos no cuentan con mecanismos de censura.

Las empresas líderes en IA están en alerta ante estos usos maliciosos y trabajan en soluciones para mitigarlos. Aunque estas herramientas las aprovechan cibercriminales, también pueden contribuir a combatir las amenazas de seguridad. Una buena forma de hacerlo es entender cómo funcionan las herramientas que los hackers utilizan. Además, es crucial que sigamos desarrollando métodos avanzados y tecnologías innovadoras para proteger a las y los usuarios y garantizar la seguridad de los sistemas digitales. La educación y la concienciación  sobre ciberseguridad también juegan un papel fundamental, ayudando a individuos y organizaciones a reconocer y responder a posibles amenazas con mayor eficacia.

 

Compartir en redes sociales

Share on facebook
Share on twitter
Share on pinterest
Share on email
Share on linkedin
Share on whatsapp

Dejar un comentario