------------------------------------------ Amenazas de los textos generados por IA 19 ene 2023 ------------------------------------------ Todo el mundo está inquieto, revolucionado por la IA últimamente y específicamente por ChatGPT. El hecho de que fuera liberado nos ha permitido a muchos experimentar y sorprendernos con sus aciertos y sus fallos. Leo en Schneier on Security [1] el enlace a un documento que explica extensamente las amenazas y métodos de detección ante los avances en generación de lenguaje natural. El documento en cuestión [2] supone según sus autores la revisión más completa de los métodos de detección informáticos hasta la fecha. También proporciona guías para trabajos futuros. Además ayer mismo Nature publicaba [3] un artículo diciendo que al menos cuatro artículos citaban a ChatGPT como coautor de trabajos de investigación. En el interesante artículo entrevistan a varios editores a los que preguntan por la conveniencia o no de incluir a la IA como coautor. El consenso general parece ser que no pues "la máquina" no puede aceptar o rechazar las responsabilidades que se adquieren sobre la veracidad de un trabajo al ser publicado. En todo caso y *por ahora* no parece que la parte más profunda de una investigación pueda ser escrita por una IA. Creo que nos queda mucho más que leer y escribir sobre el tema en los próximos años ¿cómo haremos para distinguir personas y máquinas? ¿de verdad puede llegar a ser el 90% del contenido de lo que leemos en Internet generado por programas? [1]: https://www.schneier.com/blog/archives/2023/01/threats-of-machine-generated-text.html [2]: https://arxiv.org/pdf/2210.07321.pdf [3]: https://www.nature.com/articles/d41586-023-00107-z