Jorge Fontevecchia llevó adelante una nueva entrega de ‘Periodismo puro’ en donde contó con la presencia del pensador sueco Nick Bostrom quien realizó un análisis fundamental para ver el mundo de nuestras próximas generaciones en relación al avance incesante de las inteligencias artificiales.
En ese sentido el presentador hizo hincapié en el libro ‘Superinteligencia, caminos, peligros, estrategias’, publicado en 2014 por el invitado quien advertía sobre los riesgos de la IA. “Surgirán varios riesgos a medida que aumenten las capacidades de la inteligencia artificial. Algún subconjunto de estos riesgos serían los riesgos que yo llamo riesgos existenciales”, aseveró el filósofo.
Asimismo Nick agregó: “Podrían ser riesgos de extinción humana u otras formas en las que podríamos destruir permanentemente el futuro de una manera drástica. Se clasifican en varias categorías. Una es que los propios sistemas de IA no estén alineados con los valores humanos, por lo que podrían perseguir otro objetivo al azar, se vuelvan muy poderosos y superinteligentes, y el futuro esté determinado por los objetivos de estas IA”.
Además el fundador del Instituto del Futuro de la Humanidad de la Universidad de Oxford señaló: “Una fuente diferente de riesgo existencial es que los humanos hagamos un mal uso de estos sistemas y los usemos para oprimirnos unos a otros, para librar una guerra, para desarrollar nuevas armas de destrucción masiva, etc. Y eso podría resultar en algún tipo de catástrofe”.
Además el investigador alertó: “Hubo un enorme cambio en la percepción. En aquel entonces, antes de escribir este libro, la gente no pensaba realmente en lo que pasaría si algún día la IA tuviera éxito. Era en gran medida algo que pensaban los autores de ciencia ficción. Ahora realmente se ha convertido en algo central”.
Mirá el programa completo de ‘Periodismo puro’ acá 📺: