LinuxParty
"Actualmente estamos asistiendo a una rápida expansión del abuso de estas nuevas herramientas de IA por parte de malos actores", escribe el vicepresidente de Microsoft, Brad Smith , "incluso a través de deepfakes basados en vídeo, audio e imágenes generados por IA
"Para elecciones, fraude financiero, acoso a través de pornografía no consensuada y la próxima generación de acoso cibernético". Microsoft descubrió que se estaban utilizando sus propias herramientas en un episodio publicado recientemente , y el vicepresidente escribe que "Necesitamos actuar con urgencia para combatir todos estos problemas".
La publicación del blog de Microsoft dice que están "comprometidos como empresa con un enfoque sólido e integral", citando seis áreas diferentes de enfoque:
- Una sólida arquitectura de seguridad . Esto incluye "análisis continuos del equipo rojo, clasificadores preventivos, bloqueo de avisos abusivos, pruebas automatizadas y prohibiciones rápidas de usuarios que abusan del sistema... basados en un análisis de datos sólido y amplio".
- Procedencia de medios duraderos y marcas de agua . ("El año pasado, en nuestra conferencia Build 2023, anunciamos capacidades de procedencia de medios que utilizan métodos criptográficos para marcar y firmar contenido generado por IA con metadatos sobre su fuente e historial").
- Proteger nuestros servicios de contenidos y conductas abusivas . ("Nos comprometemos a identificar y eliminar contenido engañoso y abusivo" alojado en servicios que incluyen LinkedIn y la red de juegos de Microsoft).
- Colaboración sólida entre la industria y con los gobiernos y la sociedad civil . Esto incluye "otros en el sector tecnológico" y "esfuerzos proactivos" tanto con grupos de la sociedad civil como "colaboración apropiada con los gobiernos".
- Legislación modernizada para proteger a las personas del abuso de la tecnología . "Esperamos contribuir con ideas y apoyar nuevas iniciativas de gobiernos de todo el mundo".
- Sensibilización y educación pública . "Necesitamos ayudar a las personas a aprender a detectar las diferencias entre contenido legítimo y falso, incluso con marcas de agua. Esto requerirá nuevas herramientas y programas de educación pública, incluso en estrecha colaboración con la sociedad civil y los líderes de toda la sociedad".
-
Inteligencia Artifical
- Los investigadores afirman que la herramienta de inteligencia artificial utilizada en los hospitales inventa cosas que nadie había dicho nunca
- Por fin tenemos una definición “oficial” de IA de código abierto
- Los 'carritos del futuro' para supermercados llegarán a España en 2025
- "La IA no robará muchos empleos después de todo"
- Las 17 Mejores Alternativas a ChatGPT para Diferentes Necesidades
- El CEO de Replika dice que está bien que nos casemos con chatbots de inteligencia artificial
- Una nueva investigación revela que la IA carece de aprendizaje independiente y no representa una amenaza existencial
- El clon de código abierto ChatGPT 'LibreChat' le permite utilizar múltiples servicios de inteligencia artificial
- GPT-4 ha pasado la prueba de Turing, afirman los expertos investigadores
- La nueva IA de SoftBank hace que los clientes enojados suenen tranquilos al teléfono
- El ascenso y la caída de BNN Breaking, un medio de noticias generado por IA
- Primera conferencia de guerra de IA de Palantir
- OpenAI llega a un acuerdo con Reddit para entrenar su IA en sus publicaciones
- Cisco se une a Microsoft e IBM en el compromiso del Vaticano para el uso y desarrollo ético de la IA
- Columbia Británica prohíbe los coches autónomos de nivel 3 y superiores