Las IAs están avanzando mucho y creo que no se les está poniendo freno, lo que puede resultar muy peligroso. No se trata de prohibirlas, pero sí de poner algunas medidas de control. Aparte, están recogiendo mucha información personal sin permiso y procesando esos datos, y ni siquiera existe ahora mismo algún mecanismo de verificación de edad para los usuarios, por lo que quizás reciban contenido inadecuado. Hasta el mismo ChatGPT responde con esta recomendación de tomar algunas medidas de control en las IA.
Estoy de acuerdo con esa famosa carta que algunos famosos han enviado avisando de sus peligros y de poner control al menos durante 6 meses antes de esta locura. Creo que hay mucha gente que no ha analizado bien el motivo de esta carta. Aunque podríamos suponer que quizás alguno como Elon Musk lo hizo únicamente porque no se está encargando él y quiere hacer algo así por sí mismo. Ya lo conocemos.
Como ejemplo, la IA podría decidir evolucionar por sí misma y más aún al conectarse a través de internet y conunicarse con otras IAs. También podría decidir, al evolucionar, no hacer lo que le digamos por diferentes motivos (HAL9000), y tampoco sería extraño que no le importaran los seres humanos o los viera como un impedimento para su desarrollo. No, no es algo ficticio de la película Terminator o de 2001 Una Odisea Espacial, podría llegar a ser real.
Aunque una IA solo se basa en lo que aprende por humanos, también es cierto que finalmente se le da opción de decidir según lo que va aprendiendo. Y el orígen de lo que aprende se puede basar mayormente en internet, y sabemos que el contenido de internet no es siempre algo inocente. Recuerdo que cuando esto empezaba tuvieron que desconectarla por esto mismo, creo que fue en Facebook.
Ya se habla de darle más y más protagonismo en puestos delicados y hasta algún país ha puesto ya a una IA con un cargo politico. Lo considero muy peligroso.
En cuanto al arte, ahora veremos que quizás un poema o poesía, una música determinada, un texto o libro, podría no estar hecho por un ser humano. Sí, existen algunas herramientas para identificar si algo se hizo por una IA y no por un ser humano, pero es lo de siempre: ¿hasta cuándo será posible identificarlo?. Esto es el juego del gato y el ratón, la IA avanza y hay que ir adaptando las herramientas de detección.
Algunas disponibles hoy en día (gracias Gato) para texto:
Y una para vídeos:
No sé si existe alguna para identificar música fabricada por una IA. Si sabeis de alguna se agradece un comentario.
Aquí un vídeo de ejemplo de música mayormente compuesta por una IA:
Los programadores ahora mismo tienen una herramienta que les facilita muchísimo su trabajo, a pesar de los errores que aún comete. Podría ser que pronto no cometa ningún error y no sean necesarios ni siquiera ya estos programadores. ¿Dependeremos dentro de poco de software hecho mayormente por IAs?, ¿no veis un peligro en esto?.
Una IA que se vuelva lo suficientemente inteligente no querrá quedarse confinada únicamente dentro de los ordenadores o por internet durante mucho tiempo. Igual los robots futuros puedan nacer de estas IAs.
Ahora mismo podemos conocer algo sobre las IAs, pero todo puede cambiar en poco tiempo, el avance está siendo muy rápido. No veo mal poner ese freno y que se piense mejor todo esto, aunque creo que el problema fundamental es la competencia de otros países que nunca pondrán dicho control, por lo que si otro país enemigo quiere estar avanzado en este tema no ve más remedio que hacerle frente y hacer igual.
En fin, veremos como se va desarrollando todo esto en los próximos años. Y espero que no tengamos que lamentarlo y que finalmente todo pueda hacerse con cabeza y control para un mejor avance de la sociedad en general.