Veröffentlicht: 06.07.2023 | Geschrieben von: Christoph Pech
„OpenAI-Mitgründer Ilya Sutskever und Jan Leike, der die Abteilung für die zukünftige Ausrichtung leitet, warnen in dem Blogbeitrag: „Derzeit haben wir keine Möglichkeit, eine potenziell superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie eigene Wege geht.“ Die „enorme Macht der Superintelligenz“ könne nicht nur zur Entmachtung, sondern gar zum Aussterben der Menschheit führen.“
Comments are closed