Según expertos, la humanidad corre riesgo debido a los avances que ha presentado la IA, el miércoles un importante grupo de expertos en inteligencia artificial y varios ejecutivos del sector como lo es Elon Musk, quien es fundador de SpaceX, Tesla y dueño de Twitter, o el historiador Yuval Noah Hariri.
Hicieron un llamado a tomar una pausa de seis meses para la investigación de la inteligencia artificial (IA), uno de ellos el ChatGPT-4 el cual es un modelo de OpenAI que fue lanzado este mes, estos expertos advirtieron de “grandes riesgos para la humanidad”.
Según fuentes digitales, se pide un tiempo hasta que se establezca un sistema de seguridad las cuales tengan nuevas autoridades reguladoras, y vigilancia a los sistemas IA, con esto lo que se pretende es poder diferenciar entre lo real y lo artificial, y tener instituciones las cuales puedan frenar a la “dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.
Cabe resaltar que el director de Open IA, quien fue el creador de ChatGPT, Sam Altman ha reconocido tener “un poco de miedo” de que su creación se utilice para “desinformación a gran escala o ciberataques”.
Sam Altman comunicó a la ABCNews: “La empresa necesita tiempo para adaptarse”.
Por último, los expertos afirman que recientemente hemos visto como los laboratorios de la IA, han estado en una carrera descontrolada para desarrollar y desplegar cerebros digitales, cada vez más potentes que nadie, ni siquiera los creadores de ellos, pueden entender, predecir o controlar de manera fiable, no debemos permitir que las máquinas nos inunden los canales de información con propaganda y mentiras.