LinuxParty
PC Magazine entrevistó recientemente a Janelle Shane, la científica de investigación óptica y experimentadora de IA que escribió el nuevo libro "Pareces una cosa y te amo: cómo funciona la inteligencia artificial y por qué está haciendo del mundo un lugar más extraño". "You Look Like a Thing and I Love You: How Artificial Intelligence Works and Why It's Making the World a Weirder Place."
En un momento, Shane explica por qué cualquier IA de "recuadro negro" puede ser un problema:
Creo que la ética en la IA debe incluir algún reconocimiento de que las IA generalmente no nos dicen cuándo han llegado a sus respuestas a través de métodos problemáticos. Por lo general, todo lo que vemos es la decisión final, y algunas personas han tenido la tentación de tomar la decisión "como imparcial" únicamente porque estaba involucrada una máquina. Creo que el uso ético de la IA tendrá que implicar el examen de las decisiones de IA. Si no podemos mirar dentro del recuadro negro, al menos podemos realizar estadísticas sobre las decisiones de la IA y buscar problemas sistemáticos o fallas extrañas... Hay algunos investigadores que ya ejecutan estadísticas sobre algunos algoritmos de alto perfil, pero las personas que programan estos algoritmos tienen la responsabilidad de hacer la debida diligencia en su propio trabajo. Esto es además de ser más ético acerca de si un algoritmo particular debe ser construido en absoluto...
Hay aplicaciones donde queremos un comportamiento extraño, no humano. Y luego hay aplicaciones en las que realmente preferiríamos evitar la rareza. Desafortunadamente, cuando usa algoritmos de aprendizaje automático, donde no les decimos exactamente cómo resolver un problema en particular, pueden haber peculiaridades extrañas ocultas en las estrategias que eligen.
Shane contribuyó a la serie "Op-Eds From the Future" del New York Times, canalizando a un ecologista conductual en el año 2031 defendiendo "los patinetes salvajes de Central Park" que la humanidad había coexistido con por una década.
Pero en la entrevista, ella se muestra escéptica de que alguna vez logremos vehículos autónomos reales y totalmente autónomos: es mucho más fácil hacer una IA que siga las carreteras y obedezca las reglas de tráfico que hacer una IA que evite fallas extrañas. Es exactamente ese problema:
Hay tanta variedad en el mundo real y tantas cosas extrañas que suceden que las IA no pueden haberlo visto todo durante el entrenamiento. Los humanos son relativamente buenos en el uso de su conocimiento del mundo para adaptarse a nuevas circunstancias, pero las IA son mucho más limitadas y tienden a ser terribles.
Por otro lado, las IA son mucho mejores para conducir de manera consistente que los humanos. ¿Habrá algún momento en el que la consistencia de la IA supere los problemas técnicos extraños, y nuestras compañías de seguros comiencen a incentivarnos a usar autos sin conductor? ¿O la idea de los problemas técnicos será demasiado aterradora? No estoy seguro.
Shane entrenó a una red neuronal en 162,000 titulares de Slashdot en 2017, con titulares alternativos de estilo de realidad como "Microsoft para desarrollar la ley de programación" y "Más usuarios de Pong para el proyecto Kernel". Alcanzado para hacer comentarios esta semana, Shane describió cuál podría ser el mayor peligro de la IA hoy. "En el futuro previsible, no tenemos que preocuparnos de que la IA sea lo suficientemente inteligente como para tener sus propios pensamientos y objetivos". "En cambio, el peligro es que pensamos que la IA es más inteligente de lo que es, y confiamos demasiado en sus decisiones".
-
Inteligencia Artifical
- Los investigadores afirman que la herramienta de inteligencia artificial utilizada en los hospitales inventa cosas que nadie había dicho nunca
- Por fin tenemos una definición “oficial” de IA de código abierto
- Los 'carritos del futuro' para supermercados llegarán a España en 2025
- "La IA no robará muchos empleos después de todo"
- Las 17 Mejores Alternativas a ChatGPT para Diferentes Necesidades
- El CEO de Replika dice que está bien que nos casemos con chatbots de inteligencia artificial
- Una nueva investigación revela que la IA carece de aprendizaje independiente y no representa una amenaza existencial
- El clon de código abierto ChatGPT 'LibreChat' le permite utilizar múltiples servicios de inteligencia artificial
- GPT-4 ha pasado la prueba de Turing, afirman los expertos investigadores
- La nueva IA de SoftBank hace que los clientes enojados suenen tranquilos al teléfono
- El ascenso y la caída de BNN Breaking, un medio de noticias generado por IA
- Primera conferencia de guerra de IA de Palantir
- OpenAI llega a un acuerdo con Reddit para entrenar su IA en sus publicaciones
- Cisco se une a Microsoft e IBM en el compromiso del Vaticano para el uso y desarrollo ético de la IA
- Columbia Británica prohíbe los coches autónomos de nivel 3 y superiores