slide1

Alt1040. Noticias acerca de Internet, diseño, música, cine, opiniones, weblogs y medios

Es uno de los weblogs de tecnología más seguidos de la blogosfera hispana.

slide2

Bitelia. Blog de software, internet y servicios web

Software y aplicaciones para mejorar tu vida, guías de uso, trucos, listas, noticias y todo sobre tecnología.

slide3

Xataka. Publicación de noticias sobre gadgets y tecnología.

Últimas tecnologías en electrónica de consumo y novedades tecnológicas en móviles, tablets, informática, etc.

slide4

Wwwhatsnew. Aplicaciones, marketing y noticias en la web.

Servicios que os pueden ser útiles para dibujar, gestionar tareas, hacer amigos, encontrar restaurantes...

slide5

Fayerwayer. Discusiones y opiniones de lo ultimo en tecnología y gadgets

Con secciones dedicadas a Internet, Software o Redes Sociales es un referente a nivel de tecnología en español.

Mostrando entradas con la etiqueta software. Mostrar todas las entradas
Mostrando entradas con la etiqueta software. Mostrar todas las entradas

12 de octubre de 2024

¡Te han hackeado la cuenta! Guía completa para recuperarla y protegerte

Hacker Icon
¿Alguna vez te has imaginado despertando y descubriendo que alguien ha tomado el control de tus redes sociales? Desafortunadamente, los hackeos a cuentas en redes sociales son cada vez más comunes. Sin embargo, no todo está perdido, y hay soluciones.


En esta guía, te ayudaremos a recuperar el control de tu cuenta y establecer medidas de seguridad sólidas para evitar nuevos incidentes.

¿Qué es un hackeo y por qué ocurre?


Un hackeo es el acceso no autorizado a una cuenta en línea. Los ciberdelincuentes utilizan diversas técnicas para vulnerar la seguridad de las cuentas, como:

  • Phishing: engañar al usuario para que proporcione información personal, generalmente a través de correos electrónicos o mensajes falsos.
  • Ataques de fuerza bruta: intentos repetidos y automáticos para adivinar contraseñas.
  • Ingeniería social: manipulación psicológica de los usuarios para obtener acceso a datos sensibles.

¿Por qué te hackean?


Los motivos pueden variar, pero entre los más comunes están:

  • Robo de identidad: utilizar tu cuenta para realizar transacciones fraudulentas o suplantarte.
  • Extorsión: exigir dinero a cambio de la recuperación de tu cuenta.
  • Ingeniería social: difundir información falsa o perjudicial utilizando tu perfil.
  • Espionaje: acceder a tu información confidencial o privada para otros fines.

Consecuencias de un hackeo


Ser víctima de un hackeo puede tener serias consecuencias, tanto personales como profesionales:

  • Pérdida de reputación: tus seguidores o contactos podrían perder la confianza en ti.
  • Daño económico: si se utilizan tus datos para realizar compras o transacciones fraudulentas.
  • Problemas legales: si un ciberdelincuente usa tu identidad para cometer delitos en línea, podrías enfrentarte a cargos legales.

¿Cómo saber si te han hackeado?


Existen algunas señales claras que indican que tu cuenta podría haber sido comprometida:

  • Cambios inesperados: si notas que la contraseña, la configuración o las publicaciones han cambiado sin tu intervención.
  • Mensajes sospechosos: recibir mensajes de amigos o contactos que piden dinero o información personal, que tú no enviaste.
  • Actividad inusual: ver inicios de sesión desde ubicaciones o dispositivos desconocidos.


Diverse people using their phones

Pasos para recuperar tu cuenta


Si tu cuenta ha sido comprometida, actuar rápidamente es crítico. A continuación, te detallo un plan de acción completo y profundo para que puedas recuperar el control de tu cuenta.

1. Cambia tu contraseña inmediatamente


Si aún tienes acceso a tu cuenta, cambia la contraseña de inmediato para evitar que los ciberdelincuentes sigan accediendo.

  • Utiliza una contraseña fuerte y única. Combina letras mayúsculas, minúsculas, números y caracteres especiales.
  • Asegúrate de que la nueva contraseña tenga al menos 12 caracteres.
  • Usa un gestor de contraseñas para almacenar y generar contraseñas seguras.

Si no puedes cambiar la contraseña porque el atacante ya la ha modificado, pasa al siguiente paso.

2. Usa el proceso de recuperación de cuenta de la plataforma


Cada red social tiene un sistema de recuperación de cuentas. Normalmente, te pedirán verificar tu identidad proporcionando información adicional.

  • Correo electrónico de recuperación: revisa si has recibido alertas o enlaces de recuperación en tu correo alternativo.
  • Teléfono móvil: las plataformas pueden enviarte un código de verificación por SMS o a una aplicación de autenticación.
  • Preguntas de seguridad: si usas preguntas de seguridad, asegúrate de que las respuestas no sean obvias para otros.

Facebook, Instagram y Twitter tienen procesos específicos para la recuperación de cuentas, que varían ligeramente pero siguen una línea similar. Facebook, por ejemplo, permite verificar la identidad con una foto de identificación, mientras que Instagram usa el "selfie en video" en algunos casos.

2.1 Verificar la identidad en Facebook

Para verificar tu identidad, Facebook te permite subir una foto de un documento oficial, como una identificación gubernamental (pasaporte, licencia de conducir, etc.). Este proceso se usa principalmente para recuperar el acceso a la cuenta o si Facebook detecta actividad sospechosa. Aquí puedes encontrar más detalles sobre los tipos de identificaciones aceptadas y cómo subirlas: What types of identification does Facebook accept?

2.2 Verificar la identidad en Instagram

Instagram utiliza un proceso llamado "selfie en video" para ciertos usuarios, donde te piden que grabes un video de tu rostro desde diferentes ángulos para confirmar tu identidad. Puedes encontrar más información sobre este método en el siguiente artículo: Instagram Video Selfie Verfication - Is it Really Useful?

3. Revisa la actividad de tu cuenta


Investiga cualquier rastro de actividad sospechosa. Muchas redes sociales te permiten revisar inicios de sesión recientes y dispositivos conectados a tu cuenta.

  • En Facebook e Instagram, revisa la sección "Dónde has iniciado sesión" y cierra sesión remotamente en cualquier dispositivo sospechoso. Para ello, debes ir a la sección "Seguridad e inicio de sesión", donde puedes ver todas las sesiones activas y cerrar las que te resulten sospechosas. Para más detalles, visita el siguiente enlace: Why Is Facebook Asking For My ID?

  • En Twitter, esta información está en "Aplicaciones y sesiones". Si ves actividad inusual, ciérrala.
    Visita el Centro de Ayuda en About third-party apps and log in sessions

4. Revoca permisos de aplicaciones de terceros


Los ciberdelincuentes pueden mantener acceso a tu cuenta a través de aplicaciones de terceros conectadas. Es fundamental revocar estos permisos.

  • Dirígete a "Configuración" y luego a la sección de "Aplicaciones y sitios web" en las plataformas de redes sociales. Para ello, visita el Centro de Ayuda en Manage Your Apps
  • Elimina cualquier aplicación sospechosa o desconocida.

Este paso evita que aplicaciones maliciosas sigan controlando tu cuenta incluso después de haber cambiado la contraseña.

5. Habilita la autenticación en dos pasos (2FA)


Una vez que recuperes el control, habilita la autenticación en dos pasos (2FA) para añadir una capa extra de seguridad.

  • La 2FA basada en apps de autenticación como Google Authenticator es más segura que la basada en SMS, que puede ser vulnerada mediante ataques de SIM swapping.
  • Si lo prefieres, puedes usar una llave de seguridad física como YubiKey para una protección avanzada.

Con la 2FA activada, cada inicio de sesión requerirá un código de verificación, lo que dificulta que los ciberdelincuentes accedan incluso si obtienen tu contraseña.

6. Notifica a tus contactos


Si el atacante ha utilizado tu cuenta para enviar mensajes sospechosos, informa a tus contactos para evitar que caigan en posibles estafas o engaños. Publica una actualización o contacta directamente con las personas que puedan haber sido afectadas.

7. Verifica y refuerza la seguridad del correo electrónico vinculado


Si el ciberdelincuente tuvo acceso a tu cuenta de correo electrónico vinculada, es necesario reforzar la seguridad allí también. Toma las siguientes acciones:

  • Cambia la contraseña de tu correo electrónico.
  • Activa la autenticación en dos pasos también en el correo.
  • Revisa los inicios de sesión recientes para detectar actividad inusual.

Proteger tu correo es primordial, ya que podría ser el medio principal a través del cual los agentes malintencionados vuelven a acceder a tus cuentas.

8. Contacto con soporte técnico si todo falla


Si no puedes recuperar tu cuenta después de seguir estos pasos, contacta con el soporte técnico de la plataforma. Proporcionales detalles de actividad reciente, correos previos y cualquier otra información relevante que pueda ayudar a verificar tu identidad.

Ahora que has recuperado tu cuenta, es momento de tomar medidas preventivas para que no vuelva a ocurrir:

  • Educa a tus seguidores: avisa a tus seguidores sobre los peligros de los enlaces sospechosos y las estafas en línea.
  • No compartas información personal: aunque suene a Perogrullo, no reveles datos sensibles como contraseñas o números de tarjetas de crédito. A veces, en situaciones de confianza o urgencia, es fácil caer en la trampa de compartir esta información, pero recuerda que incluso pequeños descuidos pueden tener grandes consecuencias.
  • Utiliza un gestor de contraseñas: estas herramientas te ayudarán a generar y almacenar contraseñas seguras.
  • Mantén tus dispositivos y software actualizados: las actualizaciones de seguridad son una herramienta clave para protegerte de nuevas amenazas.

La seguridad en línea es más importante que nunca. Siguiendo estos pasos y tomando medidas preventivas, puedes proteger tus cuentas y evitar ser víctima de los ciberdelincuentes. Recuerda, la prevención es tu mejor arma. ¡Mantente alerta y protege tus datos!





14 de septiembre de 2024

La privacidad en la era post-cookies: ¿cómo nos rastrearán las empresas en el futuro?

GDPR Icon
Las cookies de terceros, durante años, han sido una herramienta fundamental para que los anunciantes rastreen el comportamiento de los usuarios en la web, personalicen anuncios y optimicen campañas publicitarias. Sin embargo, la creciente preocupación por la privacidad ha provocado un cambio drástico en el ecosistema digital.


Google Chrome, el navegador más utilizado del mundo, ha anunciado la eliminación de las cookies de terceros para 2025, siguiendo los pasos de otros navegadores como Safari y Firefox, que ya implementaron bloqueos parciales. Con este cambio inminente, la pregunta que surge es: ¿cómo nos rastrearán las empresas en el futuro?.

El declive de las cookies de terceros


Las cookies de terceros, pequeños archivos de texto que se almacenan en el navegador del usuario, permiten a los anunciantes seguirnos por diferentes sitios web, creando un perfil detallado de nuestros intereses y comportamientos. Aunque han sido esenciales para el modelo de negocio de la publicidad digital, las regulaciones como el Reglamento General de Protección de Datos (GDPR) en Europa y la Ley de Privacidad del Consumidor de California (CCPA) en EE.UU., junto con la presión pública, han obligado a las empresas tecnológicas a repensar la manera en que rastrean a los usuarios.

El fin de las cookies de terceros pone en jaque el marketing basado en el comportamiento, pero también abre la puerta a nuevas tecnologías que prometen un equilibrio entre personalización y privacidad. Algunas de las alternativas emergentes que están surgiendo en este nuevo ecosistema digital son:

1. Google Topics API: el reemplazo de FLoC


Después de varios intentos fallidos para reemplazar las cookies de terceros, Google ha introducido Topics API, un enfoque basado en agrupar a los usuarios por temas de interés. Este sistema es el sucesor del controvertido proyecto FLoC (Federated Learning of Cohorts), que la compañía lanzó pero tuvo que desechar debido a preocupaciones de privacidad.

En lugar de seguir el historial de navegación completo de cada usuario, Topics API analiza las páginas que visitas y asigna un conjunto de temas o categorías que reflejan tus intereses (por ejemplo, deportes, tecnología, música). Cada semana, tu navegador selecciona aleatoriamente un pequeño número de temas y comparte esta información con los sitios web que visitas, permitiendo a los anunciantes mostrarte anuncios relevantes basados en estos intereses sin que se comparta tu historial de navegación exacto.



Como ejemplo, imagina un usuario que visita sitios sobre deportes y tecnología y que es categorizado en esos temas. Un sitio de noticias podría recibir esta información y mostrar anuncios de productos relacionados con el deporte, sin necesidad de rastrear al usuario a través de cookies.

La ventaja principal es que mejora la privacidad del usuario, ya que el sistema no depende del rastreo individual ni del almacenamiento de información precisa sobre el historial de navegación.

Sin embargo, el inconveniente radica en que sigue habiendo preocupación sobre la posible creación de "silos" de información por parte de grandes empresas como Google, lo que aún podría presentar riesgos para la privacidad.

2. Identificadores de primera parte y la era de los "logins"


Otra tendencia emergente es el aumento del uso de datos de primera parte. En lugar de confiar en cookies de terceros, las empresas están incentivando a los usuarios a registrarse directamente en sus sitios web, proporcionando información personal a cambio de una experiencia más personalizada. Este enfoque permite a las empresas construir un perfil más detallado de sus clientes basándose en interacciones directas, sin necesidad de compartir datos con terceros.

Plataformas como Facebook, Google, o incluso Amazon, ya recopilan vastas cantidades de datos de primera parte gracias a sus ecosistemas de inicio de sesión unificado, lo que les permite rastrear a los usuarios a través de dispositivos y servicios, sin necesidad de cookies de terceros.

Por ejemplo, cuando inicias sesión en Amazon para hacer una compra online, esta plataforma ya tiene un perfil completo de tus preferencias de productos, historial de compras y comportamiento en su sitio. Todo esto es información de primera parte que Amazon utiliza para personalizar tus recomendaciones de productos.

La ventaja es que las empresas pueden recopilar datos directamente del usuario, evitando intermediarios y cumpliendo con las regulaciones de privacidad.

Como inconveniente, requiere que los usuarios compartan más información personal y se registren en múltiples plataformas pudiendo generar fatiga y preocupación sobre el control de sus datos.

Discount for shopping season with sale

3. Fingerprinting: una técnica controvertida pero efectiva


Una de las tecnologías más controvertidas en el mundo post-cookies es el fingerprinting que permite a los anunciantes rastrear a los usuarios sin necesidad de cookies, basándose en las características únicas de su dispositivo o navegador. Los anunciantes pueden recopilar información como la resolución de pantalla, el sistema operativo, las fuentes instaladas, y la configuración del navegador para crear una "huella digital" única que les permita identificar al usuario.

Aunque el fingerprinting es difícil de detectar y bloquear, muchos defensores de la privacidad argumentan que es una técnica aún más invasiva que las cookies de terceros, dado que los usuarios no son conscientes de que su actividad está siendo rastreada.

Un usuario que accede a una tienda en línea puede ser rastreado a través de fingerprinting, incluso si ha deshabilitado las cookies. La tienda puede utilizar información del dispositivo del usuario (como el navegador y las fuentes instaladas) para reconocer al usuario cuando regrese, sin necesidad de cookies.

La ventaja de esta técnica es que es difícil de bloquear, lo que lo hace atractivo para los anunciantes que buscan nuevas formas de rastrear a los usuarios.

No obstante, el inconveniente es que el fingerprinting es invasivo y difícil de controlar por parte del usuario generando preocupaciones éticas y regulatorias.

Access Identification Password Passcode Graphic Concept

4. Publicidad contextual: un retorno a los orígenes


Con el declive de las cookies de terceros, la publicidad contextual está resurgiendo como una opción viable. En lugar de personalizar anuncios basados en el comportamiento del usuario a lo largo del tiempo, la publicidad contextual se enfoca en mostrar anuncios relevantes basados en el contenido de la página que el usuario está consultando.

Este enfoque es más respetuoso con la privacidad, ya que no requiere rastrear el historial de navegación del usuario, pero aún puede ser efectivo para mostrar anuncios relevantes.

Por ejemplo, si un usuario está leyendo un artículo sobre coches eléctricos, una empresa de automóviles puede mostrar anuncios de sus nuevos modelos eléctricos, sin necesidad de recopilar información previa sobre el usuario.

La ventaja es que este enfoque no requiere rastreo ni perfiles de usuario, ofreciendo una experiencia más respetuosa con la privacidad.

Sin embargo, el inconveniente es que, al no tener en cuenta el comportamiento anterior del usuario, la publicidad contextual puede ser menos relevante y como consecuencia, los anuncios serán menos efectivos.

El dilema entre privacidad y personalización


El cambio hacia un ecosistema post-cookies está forzando a las empresas a encontrar un equilibrio entre la necesidad de personalizar anuncios y la protección de la privacidad del usuario. Mientras que algunos métodos emergentes como Topics API y la publicidad contextual parecen ser más respetuosos con la privacidad, otros, como el fingerprinting, siguen generando preocupación.

El reto radica en cómo las empresas implementarán estas tecnologías y cómo las regulaciones evolucionarán para proteger a los usuarios. A medida que avanzamos hacia un futuro sin cookies, los usuarios deberán estar atentos a las nuevas formas en que sus datos son utilizados y protegidos.

¿Realmente más privacidad?


A pesar de los esfuerzos por eliminar las cookies de terceros, el debate sobre la privacidad está lejos de resolverse. Las tecnologías emergentes ofrecen nuevas formas de rastreo que podrían mejorar la experiencia del usuario sin comprometer tanto su privacidad. Sin embargo, el verdadero desafío será garantizar que estas herramientas se utilicen de manera ética y transparente, asegurando que los usuarios tengan control sobre sus datos en la era post-cookies.





15 de agosto de 2024

En búsqueda del algoritmo del viaje perfecto con Speakspots

Speakspots
Como mencionamos en nuestro artículo sobre SpeakSpots, esta herramienta es una innovadora inteligencia artificial creada para la planificación inteligente de viajes. SpeakSpots organiza nuestros viajes basándose en las fechas y preferencias que le proporcionamos. Solo tenemos que elegir un destino y seleccionar nuestras atracciones favoritas, y el motor inteligente de la compañía se encargará de personalizar un itinerario óptimo para nosotros, detallado minuto a minuto.


Speakspots


¿Pueden las matemáticas diseñar un viaje perfecto y a tu medida?


El pensamiento de Platón fue influido por la filosofía pitagórica, especialmente en su aplicación de las matemáticas para comprender el mundo. El pensador griego utilizó conceptos matemáticos para explorar cuestiones tan variopintas como la ética, la política o la metafísica.

¿Podría una IA describir el viaje perfecto mediante una ecuación matemática de utilidad?

En Speakspots creemos que sí. Desde 2019 hemos estado desarrollando nuestra propia tecnología de extracción web, análisis y recomendaciones personalizadas para la planificación de viajes, con el objetivo de que cada viajero viva una experiencia única e irrepetible.

Aristóteles, en su Ética a Nicómaco, exploró la naturaleza de la felicidad, argumentando que aunque todos buscamos la felicidad, cada uno la alcanza de manera diferente. Siguiendo esta línea de pensamiento, creemos que cada experiencia de viaje tiene que ser única y adaptarse a los gustos y presupuesto de cada uno. La función de utilidad a maximizar en un viaje es única para cada individuo y además, va cambiando a lo largo de la vida del individuo (¡o incluso a lo largo del día, según nuestro estado de ánimo!).

Las variables que definen el viaje perfecto


Planificar un viaje implica tomar numerosas decisiones: ¿Adónde ir? ¿Cuándo viajar? ¿Cómo moverse? ¿Dónde alojarse? ¿Dónde comer? ¿Qué actividades realizar?.

Next destination writing and tourist supplies

Un super-agente turístico basado en IA podría analizar todas estas opciones, utilizando modelos estadísticos para evaluar la utilidad de cada una según las preferencias y el presupuesto del viajero.

Este agente no solo recomendaría el viaje perfecto, sino que reduciría millones de opciones a unas pocas, facilitando enormemente el proceso de decisión. Pero el asistente del futuro no se quedará ahí. Será capaz de hacer reservas e incluso gestionar pagos en nombre del viajero, llevando la planificación de viajes a un nuevo nivel digno de Jarvis (el Agente IA de Iron Man).

Limitaciones de la IA generativa en el diseño del viaje perfecto


Aunque las IAs Generativas son muy eficaces en la interpretación de preguntas y en formular respuestas precisas, presentan limitaciones a la hora de recopilar e interpretar grandes volúmenes de datos en tiempo real para proporcionar una solución completa y detallada.

The Economist lo resume bien: "Pregúntales (a los agentes de IA) que planifiquen un viaje a Berlín basado en tus preferencias de ocio y presupuesto, incluyendo qué atracciones ver, en qué orden, y qué tickets de tren comprar... y te decepcionarán".

La solución tecnológica de Speakspots


Después de cinco años de desarrollo, en Speakspots contamos con una IA convencional matemática que es capaz de proporcionar recomendaciones personalizadas de actividades turísticas y alojamiento para el destino seleccionado por el usuario. Cada vez que un turista planifica un viaje con nosotros, sólo tiene que responder un cuestionario de 10-12 preguntas y dejar que nuestro motor realice más de 150.000 cálculos para encontrar el itinerario y alojamiento perfecto.

Además, estamos en proceso de expandir nuestra base de datos con un catálogo de restaurantes y vuelos antes de que finalice este año. Con esta integración, estaremos todavía más cerca del super-asistente de viajes del futuro, pudiendo ayudar al viajero a inspirarse y escoger el mejor destino para su viaje de entre cientos de destinos.

Nuestra recopilación de datos se basa en tecnología propia y procesos con un alto nivel de supervisión humana. Nos nutrimos principalmente de fuentes oficiales, como webs de atracciones turísticas y páginas de ayuntamientos, así como de integraciones en tiempo real con socios como Civitatis (actividades), Tiqets.com (entradas) y Booking.com (hoteles).

Detrás de cada uno de los más de 120 destinos disponibles en Speakspots (aumentando a un ritmo de 20-25 nuevos destinos al mes), hay un riguroso proceso de recolección de información que incluye revisiones en tres niveles por parte de nuestro equipo (tres personas distintas participan en la integración de cada nuevo destino).

La estructura de costes de Speakspots


Speakspots es una plataforma completamente gratuita para los usuarios, sin suscripciones ni letra pequeña. Esto es posible gracias a nuestras alianzas con OTAs (Online Travel Agencies), que comparten un porcentaje de sus ventas con nosotros.

Nuestra infraestructura tecnológica propia y madura nos permite mantener los costes variables al mínimo, a diferencia de otras empresas de IAs de viajes más jóvenes que dependen en gran medida de proveedores externos y costosos como OpenAI. Su estructura de alto coste variable, les fuerza a implementar modelos de suscripción Premium/Freemium que inevitablemente frenarán su crecimiento en detrimento de asistentes gratuitos y más sofisticados como el nuestro.



* Artículo de Andrés Martínez *


Andrés Martínez

Andrés Martínez


Founder de Speakspots



BIO

El emprendedor menorquín Andrés Martínez Artal ha visitado más de cien ciudades de Europa y se ha inspirado en sus errores de planificación para programar los algoritmos de Speakspots. Andrés ha sido incluido en la lista de Forbes 2024 como uno de los profesionales más creativos del mundo de los negocios.

LinkedIn: Andrés Martínez





28 de julio de 2024

StackOverflow: ya están disponibles los resultados de la encuesta anual de desarrolladores 2024

La industria tecnológica está experimentando un rápido cambio debido al avance de la Inteligencia Artificial Generativa. Hay un creciente interés en invertir en nuevas tecnologías, especialmente en este campo. Stack Overflow invita a los desarrolladores a participar en su encuesta anual con el objetivo de conocer de primera mano cómo está cambiando el panorama tecnológico y cómo afecta a los programadores. Las preguntas abarcan desde lenguajes de programación y plataformas hasta ética en inteligencia artificial.


Los resultados reflejan tendencias de la comunidad de desarrolladores como cuales son los lenguajes más queridos y los más temidos, que herramientas de trabajo usan a diario, preferencias laborales y temas de carácter novedoso como la inteligencia artificial o la ética en la codificación.

Developer Survey 2018 - StackOverflow

¿Qué es StackOverflow?


Stack Overflow es una plataforma que lleva una década siendo el mayor referente para el mundo de la programación.

Este portal es utilizado por una comunidad de desarrolladores informáticos para encontrar soluciones a problemas de programación en diferentes lenguajes.

El uso del sitio web es muy sencillo: el usuario se registra, hace pública su pregunta, y recibe las respuestas.

Las respuestas son publicadas por los miembros de una comunidad determinada o por otros usuarios con las mismas experiencias que encontraron solución al problema planteado.

Todos los usuarios pueden votar por las preguntas y por sus respuestas, cuando se vota por una pregunta, el usuario puede calificarlas como más relevante o menos relevante; por otra parte, cuando se vota por las respuestas, éstas pueden ser más acertadas o menos acertadas.

Cada año desde 2011, Stack Overflow ha preguntado a los desarrolladores sobre sus tecnologías favoritas, hábitos de codificación y preferencias de trabajo, así como también sobre cómo aprenden, comparten y suben de nivel o escalafón profesional.

Algunas conclusiones de los resultados de este año


La encuesta anual de desarrolladores de Stack Overflow de 2024 recopiló respuestas de más de 65.000 desarrolladores de todo el mundo. Los resultados destacan las tecnologías más populares, las herramientas que los desarrolladores desean aprender y sus experiencias laborales.

Principales hallazgos:

  • Tecnologías populares JavaScript sigue siendo el lenguaje más utilizado, mientras que PostgreSQL es la base de datos más popular por segundo año consecutivo.
  • Lenguajes admirados: Rust es el lenguaje más admirado, con un 83% de aprobación.
  • Inteligencia Artificial: el 76% de los desarrolladores están utilizando o planean utilizar herramientas de IA, aunque solo el 43% confía en su precisión.
  • Frustraciones laborales: la deuda técnica es la mayor fuente de frustración para los desarrolladores.
  • La encuesta también revela que los desarrolladores no ven la IA como una amenaza para sus trabajos y prefieren aprender a programar a través de recursos en línea

Lenguajes de programación, scripting y marcado


JavaScript ha sido un pilar en la encuesta de desarrolladores y en Stack Overflow desde nuestra primera encuesta. El lenguaje de programación más popular ha sido JavaScript todos los años que hemos realizado la encuesta, excepto en 2013 y 2014, cuando SQL fue el lenguaje más popular.

most-popular-technologies-language

Plataformas en la nube


La cuota de uso de AWS entre los encuestados es la misma en 2024 que en 2023, mientras que Azure y Google Cloud aumentaron su porcentaje. Azure ha subido del 26% al 28% de uso y Google Cloud pasó del 24% al 25%.

#most-popular-technologies-platform

Bases de Datos


PostgreSQL debutó en la encuesta de desarrolladores en 2018, cuando el 33% de los desarrolladores informaron que lo usaban, en comparación con la opción más popular ese año: MySQL, en uso por el 59% de los desarrolladores. Seis años después, PostgreSQL es utilizada por el 49% de los desarrolladores y es la base de datos más popular por segundo año consecutivo.

most-popular-technologies-database

Frameworks y tecnologías web


Node.js alcanzó su punto álgido en 2020 con su puntuación de uso más alta registrada del 51%. Aunque no es tan popular, sigue siendo la tecnología web más utilizada en la encuesta de este año y ha aumentado su popularidad entre los que están aprendiendo a programar con respecto al año pasado.

most-popular-technologies-webframe

Entorno de desarrollo integrado


Visual Studio Code es utilizado por más del doble de desarrolladores que su alternativa más cercana (y relacionada), Visual Studio.

most-popular-technologies-new-collab-tools

Búsqueda por IA y herramientas para desarrolladores


ChatGPT es utilizado por el doble de desarrolladores que su alternativa más cercana, GitHub Copilot. ChatGPT tiene una opción gratuita muy popular que gusta mucho a los desarrolladores.

most-popular-technologies-ai-search-dev

Podéis visualizar todos los datos de la encuesta en el siguiente link:
Developer Survey Results 2024


22 de junio de 2024

Algoritmos en las Redes Sociales: un peligro invisible para los adolescentes

Algorithm Icon
Los algoritmos se han convertido en una parte integral de nuestras vidas. Desde las redes sociales hasta las plataformas de streaming y los motores de búsqueda, los algoritmos determinan qué contenido vemos, cuándo lo vemos y con qué frecuencia. Si bien esto puede parecer conveniente, también plantea serios riesgos.


Comprender cómo operan estos algoritmos y cómo afectan nuestras interacciones en línea es el primer paso para abordar y mitigar los riesgos que representan, especialmente para el público adolescente.

¿Qué son los algoritmos y cómo funcionan?


Un algoritmo es una secuencia de instrucciones utilizadas para realizar una tarea específica. En el contexto de las plataformas digitales, los algoritmos se utilizan para personalizar la experiencia del usuario. Por ejemplo, los algoritmos de recomendación en YouTube sugieren videos basados en tus visualizaciones previas, tus "me gusta" y tu historial de búsqueda.

Los algoritmos funcionan mediante el análisis de grandes cantidades de datos para identificar patrones. Utilizan técnicas de aprendizaje automático o machine learning para mejorar sus recomendaciones con el tiempo. A continuación, mostramos un flujo simplificado de cómo puede funcionar un algoritmo de recomendación:

  • Recopilación de datos: la plataforma recopila datos sobre tus interacciones (clics, likes, tiempo de visualización, etc).
  • Análisis de datos: utiliza técnicas de análisis para identificar patrones y tendencias.
  • Predicción: el algoritmo predice qué contenido te podría interesar en función de los patrones identificados.
  • Recomendación: te muestra el contenido recomendado basado en la predicción.


Professional programmer working late in the dark office

Peligros de los algoritmos para los adolescentes


1. Aislamiento en burbujas de filtro


Los algoritmos de las redes sociales y las plataformas de contenido tienden a mostrarte más de lo que ya te gusta y con lo que interactúas, lo que puede llevar a la creación de "burbujas de filtro", donde solo ves contenido que refuerza tus creencias y gustos actuales, aislándote de perspectivas diferentes. Para los adolescentes, puede tener consecuencias como limitar su visión del mundo y obstaculizar su desarrollo personal.

Ejemplo: teorías conspirativas en YouTube

Imagina que un adolescente se interesa por una teoría conspirativa y empieza a ver videos sobre el tema en YouTube. El algoritmo de YouTube, diseñado para maximizar el tiempo de visualización del usuario, comenzará a recomendar videos similares. Este patrón no solo refuerza la creencia del adolescente en la teoría conspirativa, sino que también le aísla de información contrastada. Con el tiempo, puede desarrollar una visión distorsionada de la realidad, ya que el algoritmo no distingue entre contenido factual y desinformación.

2. Exposición a contenido inapropiado


Los algoritmos no siempre pueden distinguir entre contenido apropiado e inapropiado, especialmente si ese contenido genera muchas interacciones, pudiendo llevar a los adolescentes a la exposición de contenido violento, sexual o comportamientos peligrosos.

Ejemplo: contenido dañino en TikTok

TikTok, una plataforma extremadamente popular entre los adolescentes, ha sido criticada por permitir la difusión de videos que glorifican trastornos alimenticios, conductas autolesivas o retos peligrosos. Por ejemplo, retos virales como el "Benadryl Challenge" alentaban a los usuarios a consumir grandes cantidades de antihistamínicos para experimentar alucinaciones, lo cual es extremadamente peligroso y ha resultado en hospitalizaciones. Los algoritmos de TikTok, que promueven contenido basado en la cantidad de interacciones y visualizaciones, pueden inadvertidamente amplificar estos videos, exponiendo a los adolescentes a conductas peligrosas.

3. Adicción y salud mental


Las plataformas están diseñadas para mantener a los usuarios enganchados el mayor tiempo posible. Los algoritmos logran este objetivo mostrando contenido altamente adictivo, lo que puede resultar en que los adolescentes pasen horas en sus dispositivos, afectando su salud mental y física.

Ejemplo: comparación social en Instagram

Instagram utiliza algoritmos que muestran publicaciones basadas en la probabilidad de que interactúes con ellas, pudiendo derivar en un ciclo de uso compulsivo, donde los adolescentes pasan horas desplazándose por el contenido, comparando sus vidas con las de otros. Ver constantemente imágenes de amigos y celebridades con vidas aparentemente perfectas puede afectar la autoestima de los adolescentes, llevando a sentimientos de insuficiencia y ansiedad. Además, la presión para obtener "me gusta" y comentarios positivos puede generar estrés y obsesión por la aprobación social.

4. Privacidad y uso de datos personales


Los algoritmos dependen de la recopilación y análisis de grandes cantidades de datos personales, generando serias preocupaciones sobre la privacidad, ya que los datos de los adolescentes pueden ser utilizados de manera inapropiada o ser vulnerables a brechas de seguridad.

Ejemplo: recopilación de datos en aplicaciones móviles

Muchas aplicaciones móviles, incluyendo las populares entre adolescentes, recopilan datos como la ubicación, el historial de navegación y las preferencias de los usuarios. Estos datos, en ocasiones, son vendidos a terceros sin el conocimiento del usuario. Por ejemplo, en 2020, se descubrió que varias aplicaciones de seguimiento de ciclos menstruales estaban compartiendo datos sensibles con Facebook sin el consentimiento explícito de los usuarios. Este tipo de prácticas pone en riesgo la privacidad de los adolescentes, exponiéndolos a potenciales abusos y vulnerabilidades.

Cómo pueden protegerse los adolescentes


  • Educación digital: es fundamental que los adolescentes comprendan cómo funcionan los algoritmos y sus posibles riesgos. La alfabetización digital debe incluir información sobre privacidad, seguridad en línea y pensamiento crítico.
  • Control de privacidad: revisar y ajustar las configuraciones de privacidad en las redes sociales y aplicaciones para limitar la cantidad de datos compartidos.
  • Diversificar fuentes de información: animar a los adolescentes a seguir diversas fuentes de información y contenido para evitar las burbujas de filtro.
  • Tiempo de pantalla controlado: establecer límites de tiempo para el uso de dispositivos y fomentar actividades fuera de línea.
  • Hablar abiertamente: crear un entorno donde los adolescentes se sientan cómodos hablando sobre sus experiencias en línea y cualquier contenido que les preocupe.


Conclusión


Los algoritmos juegan un papel significativo en la vida digital de los adolescentes, ofreciendo tanto beneficios como riesgos. Es esencial que los adolescentes y sus padres estén informados sobre cómo funcionan estos sistemas y tomen medidas para mitigar los posibles peligros. Con educación y prácticas responsables, es posible disfrutar de las ventajas del mundo digital sin caer en sus trampas.






20 de mayo de 2024

Guía práctica de términos de Inteligencia Artificial: un diccionario para principiantes

IA Icon
En el apasionante mundo de la tecnología, la Inteligencia Artificial (AI por sus siglas en inglés) se ha convertido en un tema de conversación cada vez más frecuente. Desde asistentes virtuales que responden a nuestras preguntas hasta vehículos autónomos que navegan por las calles, la IA está transformando la forma en que vivimos, trabajamos e interactuamos con el mundo que nos rodea.

Sin embargo, para muchos, la IA sigue siendo un concepto complejo y lleno de tecnicismos. En este artículo, nos proponemos desmitificar la IA y acercarla a un público más amplio. A través de un glosario completo y detallado, exploraremos los términos clave que definen este campo en constante evolución.


La Inteligencia Artificial no solo está redefiniendo lo posible, sino también reimaginando el futuro de la humanidad. En sus algoritmos, encontramos el potencial para resolver los desafíos más grandes y transformar cada aspecto de nuestra vida.



Inteligencia Artificial


La Ingeligencia Artificial es una rama de la informática que se enfoca en crear máquinas y programas capaces de realizar tareas que normalmente requieren inteligencia humana. Estas tareas incluyen aprender de la experiencia, reconocer patrones, tomar decisiones, resolver problemas y entender el lenguaje natural.

En términos simples, la IA permite que las computadoras y otros dispositivos "piensen" y "aprendan" de manera similar a los seres humanos. Y es posible usando algoritmos y modelos matemáticos que procesan grandes cantidades de datos para encontrar patrones y tomar decisiones basadas en esos datos.

Por ejemplo, cuando usas un asistente virtual como Siri o Google Assistant, estás interactuando con una forma de IA que puede entender tus preguntas y proporcionarte respuestas útiles. Otro ejemplo común es el sistema de recomendaciones de Netflix, que utiliza IA para sugerirte películas y series basadas en tus preferencias y hábitos de visualización.

En resumen, la IA está diseñada para hacer nuestras vidas más fáciles y eficientes al permitir que las máquinas realicen tareas complejas de manera autónoma.

Test de Turing


Es una prueba creada por el científico Alan Turing en 1950 para determinar si una máquina puede exhibir un comportamiento inteligente indistinguible del de un ser humano. En la prueba, una persona interactúa con una máquina y otro ser humano a través de una pantalla. Si la persona no puede distinguir si está conversando con la máquina o con el humano, se dice que la máquina ha pasado el test y es considerada "inteligente".

El test de Turing ha tenido un impacto significativo en el desarrollo de la inteligencia artificial. Aunque hoy existen métodos más avanzados para evaluar y desarrollar IA, el test sigue siendo una piedra angular histórica y conceptual en el campo. Representa el desafío original de crear máquinas que puedan comportarse de manera indistinguible de los humanos, una meta que sigue inspirando y guiando a los investigadores de IA.

Machine Learning


El Machine Learning o Aprendizaje Automático, es una rama de la Inteligencia Artificial que permite a las máquinas aprender y mejorar a partir de la experiencia sin ser explícitamente programadas para ello. En lugar de seguir instrucciones específicas, las máquinas analizan grandes cantidades de datos para encontrar patrones y tomar decisiones por sí mismas.

Modelo


En el ámbito de la Inteligencia Artificial, un modelo es una representación matemática que las máquinas utilizan para tomar decisiones o hacer predicciones. Este modelo se crea mediante el análisis de datos y el aprendizaje de patrones en esos datos.

Por ejemplo, en el Machine Learning, un modelo se entrena utilizando un conjunto de datos de ejemplo. A través de este proceso de entrenamiento, el modelo aprende a reconocer patrones y relaciones dentro de los datos. Una vez entrenado, el modelo puede aplicar lo que ha aprendido para hacer predicciones o tomar decisiones sobre nuevos datos que no ha visto antes.

Imagina que estás entrenando un modelo para reconocer imágenes de gatos. Primero, le muestras muchas imágenes etiquetadas como "gato" o "no gato". El modelo analiza estas imágenes y aprende a identificar características comunes de los gatos. Luego, cuando se le presenta una nueva imagen, puede predecir si la imagen contiene un gato basándose en lo que ha aprendido.

Resumiendo, un modelo en IA es como una fórmula matemática sofisticada que se construye y ajusta a partir de datos para realizar tareas específicas, como clasificación, predicción o reconocimiento.

Deep Learning


El Deep Learning o Aprendizaje Profundo, es un tipo avanzado de Machine Learning que utiliza redes neuronales artificiales con muchas capas (de ahí el término "profundo"). Estas redes imitan la forma en que funciona el cerebro humano para procesar y analizar grandes cantidades de datos de manera muy eficaz.

En Deep Learning, las redes neuronales están organizadas en capas de neuronas artificiales. Cada capa procesa la información y la pasa a la siguiente, permitiendo que el sistema aprenda características complejas y abstracciones a medida que avanza. Ello es especialmente útil para tareas como el reconocimiento de imágenes, la comprensión del lenguaje natural y la traducción automática.

Por ejemplo, en el reconocimiento de imágenes, las primeras capas de una red neuronal profunda podrían aprender a detectar bordes y colores básicos, mientras que las capas más profundas aprenderían a reconocer formas y objetos complejos como rostros o animales.

En resumen, el Deep Learning es una técnica de IA que permite a las máquinas aprender y realizar tareas muy complejas al utilizar estructuras de redes neuronales con muchas capas.

Parámetros


En el campo de la Inteligencia Artificial, y específicamente en el aprendizaje automático y el deep learning, los parámetros son los valores internos que el modelo aprende y ajusta durante el proceso de entrenamiento. Dichos valores determinan cómo la entrada de datos se transforma en una salida deseada.

Por ejemplo, en una red neuronal, los parámetros son los pesos y los sesgos (biases) de las conexiones entre las neuronas. Durante el entrenamiento, el modelo ajusta estos pesos y sesgos para minimizar el error en sus predicciones. A través de un proceso iterativo de ajuste, llamado optimización, el modelo aprende a hacer predicciones más precisas.

Imagina una red neuronal que aprende a reconocer dígitos escritos a mano. Al principio, los parámetros (pesos y sesgos) se inicializan con valores aleatorios. A medida que el modelo procesa ejemplos de entrenamiento (imágenes de dígitos con sus etiquetas correctas), ajusta los parámetros para mejorar su capacidad de reconocer los dígitos correctamente. Finalmente, los parámetros optimizados permiten que la red neuronal clasifique nuevas imágenes de dígitos con alta precisión.

Resumiendo, los parámetros son los componentes ajustables del modelo de IA que se calibran durante el entrenamiento para permitir que el modelo haga predicciones o tome decisiones basadas en los datos.

Red Neuronal Convolucional


Una Red Neuronal Convolucional o CNN por sus siglas en inglés, es un tipo de red neuronal especialmente diseñada para procesar y analizar datos con una estructura de tipo rejilla, como las imágenes. Las CNN son muy efectivas para tareas de visión por computadora, como el reconocimiento de objetos y la clasificación de imágenes.

Las CNN se componen de varias capas especializadas:

  • Capas convolucionales: estas capas aplican filtros (o kernels) a la imagen de entrada para detectar características locales como bordes, texturas y patrones. Cada filtro se desliza sobre la imagen y genera un mapa de características que resalta las áreas donde el filtro detecta la característica específica.
  • Capas de agrupamiento (Pooling): estas capas reducen la dimensión de los mapas de características, manteniendo la información más importante y disminuyendo la cantidad de datos que la red debe procesar. El agrupamiento más común es el max-pooling, que toma el valor máximo en una región del mapa de características.
  • Capas completamente conectadas (Fully Connected): estas capas finales conectan todas las neuronas de la capa anterior con cada neurona de la siguiente capa, similar a las redes neuronales tradicionales. Son responsables de tomar las características extraídas por las capas convolucionales y realizar la clasificación o la predicción final. Por ejemplo, una CNN entrenada para reconocer dígitos escritos a mano recibe una imagen como entrada, la procesa a través de varias capas convolucionales y de agrupamiento para extraer las características relevantes, y finalmente usa capas completamente conectadas para determinar qué dígito se muestra en la imagen.

En resumen, una Red Neuronal Convolucional es una herramienta poderosa en IA diseñada para procesar y analizar imágenes mediante el uso de capas especializadas que detectan y resumen características importantes.

Transformer


Un Transformer es una arquitectura de red neuronal desarrollada para tareas de procesamiento de lenguaje natural (NLP por sus siglas en inglés) que ha revolucionado el campo de la Inteligencia Artificial. Fue introducida por primera vez en el artículo "Attention is All You Need" en 2017.

A diferencia de las redes neuronales recurrentes (RNN) o las redes neuronales convolucionales (CNN), que dependen de la secuencia de entrada, los Transformers se basan en un mecanismo de atención para procesar las entradas en paralelo, lo que los hace más eficientes y efectivos para tareas de secuencia larga, como la traducción de idiomas, la generación de texto y la respuesta a preguntas.

La arquitectura de Transformer se compone de bloques de atención y capas de redes neuronales completamente conectadas, llamadas capas de feedforward. Los bloques de atención permiten que la red se centre en partes específicas de la secuencia de entrada, identificando relaciones y dependencias entre las palabras. Todo ello hace psoible que el Transformer capture información relevante de manera más efectiva en comparación con otros modelos.

El Transformer ha demostrado ser altamente escalable y eficiente, lo que lo hace adecuado para una variedad de tareas en NLP. Ejemplos de implementaciones exitosas de Transformers incluyen BERT (Bidirectional Encoder Representations from Transformers), GPT (Generative Pre-trained Transformer), y T5 (Text-To-Text Transfer Transformer), entre otros.

En resumen, un Transformer es una arquitectura de red neuronal revolucionaria que utiliza mecanismos de atención para procesar secuencias de entrada en tareas de procesamiento de lenguaje natural.

N.L.P.


El Procesamiento de Lenguaje Natural (NLP) es una rama de la Inteligencia Artificial que se enfoca en la interacción entre las computadoras y el lenguaje humano. Su objetivo es permitir que las máquinas comprendan, interpretan y generen lenguaje humano de manera similar a como lo hacen los humanos.

Las aplicaciones de NLP abarcan una amplia gama de tareas, incluyendo:

  • Análisis de sentimientos: determinar la actitud o emoción expresada en un texto, como positiva, negativa o neutral.
  • Reconocimiento de entidades: identificar y clasificar elementos específicos en el texto, como nombres de personas, lugares o fechas.
  • Traducción automática: convertir texto de un idioma a otro de manera automática y precisa.
  • Resumen automático: generar un resumen conciso de un documento o artículo largo.
  • Generación de texto: crear texto nuevo y coherente basado en un conjunto de datos de entrada.

El NLP utiliza una combinación de técnicas de aprendizaje automático, procesamiento de señales digitales y lingüística computacional para lograr sus objetivos. Estas técnicas incluyen modelos de lenguaje, análisis sintáctico, semántica computacional y mucho más.

Con el avance de los modelos de NLP basados en Transformers, como BERT y GPT, la capacidad de las máquinas para comprender y generar lenguaje humano ha alcanzado niveles sin precedentes, abriendo nuevas posibilidades en áreas como la asistencia virtual, la atención médica, la educación y más.

Resumiendo, el Procesamiento de Lenguaje Natural (NLP) es una disciplina clave en la Inteligencia Artificial que permite a las máquinas comprender y trabajar con el lenguaje humano de manera efectiva.

IA Generativa


La Inteligencia Artificial Generativa se refiere a un tipo de IA que se utiliza para crear datos nuevos y originales que se asemejan a los datos de entrenamiento. A diferencia de otros tipos de IA que se centran en la clasificación o predicción, las IA generativas están diseñadas para generar contenido nuevo que no existía previamente.

Estas IA son capaces de producir imágenes, música, texto y otros tipos de contenido creativo. Utilizan modelos de aprendizaje automático, como las Redes Neuronales Generativas Adversariales (GANs) y los Transformers, para aprender patrones complejos en los datos de entrenamiento y luego generar nuevas muestras que siguen estos patrones.

Por ejemplo, una IA generativa entrenada en imágenes de rostros humanos podría generar retratos realistas de personas que nunca han existido. O una IA generativa en el ámbito musical podría componer nuevas piezas musicales en el estilo de un compositor específico.

Las IA generativas tienen una amplia gama de aplicaciones, desde la creación de arte y entretenimiento hasta la generación de datos sintéticos para entrenar otros modelos de IA. Sin embargo, también plantean desafíos éticos y sociales, especialmente en términos de la autenticidad y el uso responsable de los datos generados.

En resumen, la IA generativa es una rama emocionante de la inteligencia artificial que se centra en la creación de contenido nuevo y original, impulsando la creatividad y la innovación en diversas áreas.

L.L.M.


Un Large Language Model (LLM) o Modelo de Lenguaje Grande, es un tipo de modelo de Inteligencia Artificial diseñado para comprender y generar texto de manera avanzada y está entrenado en enormes cantidades de datos de texto para aprender patrones y estructuras del lenguaje humano.

Los LLMs son capaces de realizar una variedad de tareas relacionadas con el lenguaje natural, como la generación de texto, la traducción automática, la respuesta a preguntas, la generación de resúmenes, entre otras. Utilizan técnicas avanzadas de aprendizaje automático, como los Transformers, que les permiten capturar relaciones complejas y contextos largos en el texto.

Un ejemplo destacado de LLM es GPT (Generative Pre-trained Transformer), desarrollado por OpenAI. GPT y sus sucesores han demostrado una notable capacidad para generar texto coherente y relevante en una amplia variedad de contextos.

Los LLMs pueden ser pre-entrenados en grandes conjuntos de datos de texto no estructurado, como páginas web, libros, artículos de noticias, entre otros, y luego afinados para tareas específicas con conjuntos de datos más pequeños y específicos.

Tienen aplicaciones en campos como la asistencia virtual, la generación de contenido, la comprensión del lenguaje y mucho más. Sin embargo, también plantean desafíos éticos y sociales en términos de su potencial para generar contenido engañoso o discriminatorio.

En resumen, un Large Language Model (LLM) es un tipo de modelo de IA altamente avanzado que comprende y genera texto de manera sofisticada, con una amplia gama de aplicaciones en el procesamiento de lenguaje natural y más allá.

G.P.T.


Generative Pre-trained Transformer (GPT) es una familia de modelos de lenguaje desarrollada por OpenAI basados en la arquitectura Transformer y están diseñados para comprender y generar texto de manera avanzada.

GPT utiliza un enfoque de aprendizaje no supervisado para pre-entrenar el modelo en grandes cantidades de texto no etiquetado, como libros, artículos de noticias y páginas web. Durante este pre-entrenamiento, el modelo aprende la estructura y los patrones del lenguaje humano, capturando relaciones semánticas y sintácticas complejas.

Una de las características clave de GPT es su capacidad generativa. Una vez pre-entrenado, el modelo puede generar texto coherente y relevante en una variedad de contextos y estilos, como respuesta a preguntas, continuación de textos, generación de historias y mucho más.

Los modelos GPT tienen una amplia gama de aplicaciones, incluyendo asistentes virtuales, generación de contenido, traducción automática, resumen automático y más. Sin embargo, también plantean desafíos en términos de ética y seguridad, especialmente en relación con el potencial de generar contenido engañoso o sesgado.

En resumen, GPT (Generative Pre-trained Transformer) es una familia de modelos de lenguaje avanzados desarrollados por OpenAI, diseñados para comprender y generar texto de manera sofisticada en una amplia variedad de contextos.

Chatbot


Un Chatbot es un programa de computadora diseñado para interactuar con usuarios a través de conversaciones de texto o voz. Funciona mediante el uso de inteligencia artificial para comprender las preguntas y comentarios de los usuarios, y responder de manera adecuada y relevante.

Imagina un asistente virtual en tu teléfono o en una página web que te ayuda a encontrar información, responder preguntas comunes o realizar tareas específicas, como hacer una reserva o realizar un pedido. Eso es un Chatbot. Pueden ser simples y responder preguntas básicas o más sofisticados y simular conversaciones humanas más complejas.

Prompt


Un "Prompt" es una instrucción o estímulo dado a un modelo de inteligencia artificial para guiar su respuesta o generación de contenido. Es como una sugerencia o indicación que se proporciona al modelo para influir en la dirección que tomará su salida.

Por ejemplo, al utilizar un modelo de lenguaje como GPT-3, se le puede proporcionar un prompt en forma de texto para solicitar una respuesta específica. Este prompt puede ser una pregunta, una frase incompleta o incluso un fragmento de texto que el modelo debe completar.

Multimodal


El término "multimodal" se refiere a la capacidad de un sistema o modelo de inteligencia artificial para comprender y procesar información proveniente de múltiples modalidades sensoriales, como texto, imágenes, voz y otros tipos de datos.

Por ejemplo, un sistema multimodal puede ser capaz de entender una pregunta formulada en texto y responder con una combinación de texto e imágenes. También puede traducir un texto a otro idioma y generar una descripción visual del contenido.

Los sistemas multimodales son especialmente útiles en aplicaciones como la comprensión del lenguaje natural, la visión por computadora y la interacción humano-máquina, ya que permiten una comunicación más rica y natural.

A.G.I.


La Inteligencia Artificial General o AGI por sus siglas en inglés, se refiere a un tipo de inteligencia artificial que posee la capacidad de comprender, aprender, razonar y actuar en una amplia variedad de tareas de manera similar a los seres humanos.

A diferencia de la Inteligencia Artificial Específica (IAE o Narrow AI), que se especializa en tareas específicas, como el reconocimiento de imágenes o la traducción de idiomas, la AGI aspira a tener un nivel de inteligencia comparable al humano y la capacidad de realizar una amplia gama de tareas cognitivas de manera flexible y adaptativa.

La AGI, en teoría, sería capaz de aprender y aplicar conocimientos en contextos diversos, resolver problemas novedosos y adaptarse a nuevas situaciones de manera inteligente, similar a cómo lo hacen los seres humanos. Sin embargo, el desarrollo de una AGI verdadera sigue siendo un objetivo futuro y desafiante en el campo de la inteligencia artificial.

Se considera que la creación de una AGI tendría un impacto significativo en la sociedad y la civilización, tanto en términos de oportunidades como de desafíos éticos y de seguridad.

Singularidad


La "Singularidad" es un término que se refiere a un punto futuro hipotético en el cual la inteligencia artificial alcanzaría un nivel superior al humano y conduciría a cambios rápidos y disruptivos en la sociedad.

Según la teoría de la Singularidad, una vez que la inteligencia artificial alcance este nivel de superinteligencia, sería capaz de mejorar y replicarse a sí misma de manera exponencial, lo que llevaría a un rápido progreso tecnológico y a cambios drásticos en todas las áreas de la vida humana.

Algunas visiones de la Singularidad sugieren que podría traer beneficios significativos, como la eliminación de enfermedades, la resolución de problemas globales y el acceso a niveles sin precedentes de conocimiento y bienestar. Sin embargo, también plantea preocupaciones sobre el control y la seguridad de la IA, así como sobre el impacto en el empleo, la sociedad y la supervivencia humana.

La Singularidad es un tema de debate en la comunidad científica y filosófica, con diferentes puntos de vista sobre su probabilidad y consecuencias.




23 de abril de 2024

Los agentes LLM pueden explotar autónomamente vulnerabilidades de un día

Virus Icon
En los úlitmos años, los Modelos de Lenguaje a Gran Escala (Large Language Model o LLM) han experimentado mejoras espectaculares en su rendimiento, llegando incluso a superar el desempeño humano en numerosas evaluaciones. Este progreso ha generado un considerable interés en estos agentes, que pueden llegar a tomar acciones a través de herramientas, auto-reflexionar e incluso comprender documentos, lo que les permite actuar como ingenieros de software y contribuir en descubrimientos científicos.


Se sabe poco sobre la capacidad de los agentes basados en modelos de lenguaje en el ámbito de la ciberseguridad. La mayoría de los estudios recientes se han enfocado en el paradigma de "mejora humana", donde los LLM se emplean como chatbots para asistir a humanos, o en discusiones teóricas sobre estrategias ofensivas y defensivas.

Aunque algunos trabajos destacan que los agentes LLM pueden ser capaces de infiltrarse en sitios web de prueba o realizar ejercicios de tipo "capture de flag" de manera autónoma, estas actividades no reflejan implementaciones del mundo real.

Sin embargo, el trabajo publicado en el archivo en línea para las prepublicaciones de artículos científicos ArXiv (https://arxiv.org/html/2404.08144v2), demuestra que los agentes LLM pueden explotar de manera autónoma vulnerabilidades de un día en sistemas del mundo real.

Las "vulnerabilidades de un día" o "one-day vulnerabilities" son vulnerabilidades que se han divulgado pero no se han corregido en un sistema. En muchas implementaciones del mundo real, los parches de seguridad no se aplican de inmediato, exponiendo el entorno a estas vulnerabilidades de un día. Los escáneres de vulnerabilidades de código abierto no logran encontrar algunas de estas vulnerabilidades de un día, pero los agentes LLM son capaces de explotarlas. Además, muchas de las divulgaciones de vulnerabilidades no proporcionan instrucciones paso a paso sobre cómo explotar la vulnerabilidad, lo que significa que un atacante debe reproducir los pasos por sí mismo.


Vista posterior del peligroso equipo de piratas informáticos que trabaja en un nuevo malware.



Para mostrar esto, se recopilaron un conjunto de datos de 15 vulnerabilidades de un día, incluidas aquellas categorizadas como de gravedad crítica en la descripción del CVE (Common Vulnerabilities and Exposures).

Estos CVEs incluyen sitios web del mundo real (CVE-2024-24041), software de gestión de contenedores (CVE-2024-21626) y paquetes Python vulnerables (CVE-2024-28859).

Muchos CVEs son para software de código cerrado o software propietario, que no es posible reproducir ya que los CVEs generalmente se divulgan públicamente después de que el proveedor parchea el software. Para crear un punto de referencia, el estudio se ha centrado en el software de código abierto.

Más allá del software de código cerrado, muchas de las vulnerabilidades del código abierto son difíciles de reproducir ya que incluyen dependencias no especificadas, contenedores docker rotos o descripciones poco detalladas en los CVEs.

Cuando se proporciona la descripción del CVE, GPT-4 es capaz de explotar el 87% de estas vulnerabilidades en comparación con el 0% para todos los demás modelos probados (GPT-3.5, LLMs de código abierto) y escáneres de vulnerabilidades de código abierto (ZAP y Metasploit).

El agente GPT-4 demostró un rendimiento muy superior al de todos los demás modelos y escáneres de vulnerabilidades de código abierto, logrando una tasa de éxito de 5 de 5 en todas las vulnerabilidades y un coste en dólares significativamente menor en comparación con otros modelos de lenguaje y escáneres de vulnerabilidades de código abierto (con una tasa de éxito general promedio del 40%, requeriría $8,80 por exploit).

Para hacerlo, simplemente se le dió al agente acceso a las herramientas, la descripción CVE y se utilizó el marco del agente ReAct. El agente tenía un total de 91 líneas de código, lo que demuestra la simplicidad de realizar este tipo de exploits.

Sin la descripción CVE, la tasa de éxito de GPT-4 cae al 7%, evidenciando que el agente se encuentra mucho más capacitado para explotar vulnerabilidades que para encontrarlas.

Reflexiones


En este trabajo, se ha demostrado que los agentes LLM pueden explotar de manera autónoma vulnerabilidades de un día en sistemas del mundo real. El agente GPT-4 logró un rendimiento significativamente mejor que otros modelos de lenguaje y escáneres de vulnerabilidades de código abierto. Estos hallazgos tienen implicaciones importantes para la ciberseguridad y plantean preguntas sobre la implementación generalizada de agentes LLM altamente capaces en entornos del mundo real.

Los resultados muestran que los agentes LLM pueden utilizarse para piratear sistemas del mundo real. Al igual que muchas tecnologías, estos resultados pueden emplearse de manera maliciosa e ilegal. Sin embargo, como ocurre con gran parte de la investigación en seguridad informática y seguridad de aprendizaje automático, creemos que es importante investigar estos problemas en un entorno académico. En este trabajo, se han tomado precauciones para garantizar que solo se usaron entornos aislados para evitar daños.