LinuxParty
"Actualmente estamos asistiendo a una rápida expansión del abuso de estas nuevas herramientas de IA por parte de malos actores", escribe el vicepresidente de Microsoft, Brad Smith , "incluso a través de deepfakes basados en vídeo, audio e imágenes generados por IA
"Para elecciones, fraude financiero, acoso a través de pornografía no consensuada y la próxima generación de acoso cibernético". Microsoft descubrió que se estaban utilizando sus propias herramientas en un episodio publicado recientemente , y el vicepresidente escribe que "Necesitamos actuar con urgencia para combatir todos estos problemas".
La publicación del blog de Microsoft dice que están "comprometidos como empresa con un enfoque sólido e integral", citando seis áreas diferentes de enfoque:
- Una sólida arquitectura de seguridad . Esto incluye "análisis continuos del equipo rojo, clasificadores preventivos, bloqueo de avisos abusivos, pruebas automatizadas y prohibiciones rápidas de usuarios que abusan del sistema... basados en un análisis de datos sólido y amplio".
- Procedencia de medios duraderos y marcas de agua . ("El año pasado, en nuestra conferencia Build 2023, anunciamos capacidades de procedencia de medios que utilizan métodos criptográficos para marcar y firmar contenido generado por IA con metadatos sobre su fuente e historial").
- Proteger nuestros servicios de contenidos y conductas abusivas . ("Nos comprometemos a identificar y eliminar contenido engañoso y abusivo" alojado en servicios que incluyen LinkedIn y la red de juegos de Microsoft).
- Colaboración sólida entre la industria y con los gobiernos y la sociedad civil . Esto incluye "otros en el sector tecnológico" y "esfuerzos proactivos" tanto con grupos de la sociedad civil como "colaboración apropiada con los gobiernos".
- Legislación modernizada para proteger a las personas del abuso de la tecnología . "Esperamos contribuir con ideas y apoyar nuevas iniciativas de gobiernos de todo el mundo".
- Sensibilización y educación pública . "Necesitamos ayudar a las personas a aprender a detectar las diferencias entre contenido legítimo y falso, incluso con marcas de agua. Esto requerirá nuevas herramientas y programas de educación pública, incluso en estrecha colaboración con la sociedad civil y los líderes de toda la sociedad".
