- Atalanta vence Lecce e garante vaga na próxima Liga dos Campeões
- Jacques Audiard arrebata Cannes com musical trans ambientado no México
- Exército de Israel anuncia que repatriou corpo resgatado em Gaza
- Gaza recebe primeiro carregamento de ajuda humanitária após vários dias de bloqueio
- Bayer Leverkusen se torna o 1º time a terminar invicto uma Bundesliga
- Argentino Daniel Burman apresenta em Cannes 'Transmitzvah', entre tradição e identidade de gênero
- Seis mortos na Nova Caledônia, onde Exército tenta retomar controle do território
- Swiatek vence Sabalenka e conquista WTA 1000 de Roma pela 3ª vez
- Max Verstappen conquista pole position do GP da Emilia-Romagna
- Técnico Roberto De Zerbi deixará comando do Brighton no fim da temporada
- PSG planeja construir seu futuro estádio em um hipódromo
- Phil Foden é eleito melhor jogador da temporada na Premier League
- Otimismo sobre estado do primeiro-ministro eslovaco; suposto agressor em prisão preventiva
- Zelensky se prepara para grande ofensiva no norte e leste da Ucrânia enquanto Rússia avança
- Ambientalistas recriam viagem de Charles Darwin às Ilhas Galápagos
- México e Guatemala concordam em atender 'causas estruturais da migração'
- OpenAI dissolve unidade de riscos futuros
- A ofensiva russa na Ucrânia pode se intensificar, alerta Zelensky em entrevista à AFP
- Decreto que descreve transexualidade como 'transtorno mental' provoca protesto no Peru
- Coreia do Norte confirma lançamento de míssil e Kim promete impulsionar força nuclear
- Presos são transferidos de prisão na Colômbia após assassinato de seu diretor
- Grupos protestam no Peru contra decreto que descreve transexualidade como 'transtorno mental'
- 'Momento histórico': primeiro desfile de maiôs na Arábia Saudita
- Jarry vence Paul e vai à final do Masters 1000 de Roma contra Zverev
- Maduro marcha com estudantes após nomear equipe de campanha na Venezuela
- É impossível prever o que vai ocorrer se Panamá fechar Darién a migrantes (Unicef)
Entwickler von Künstlicher Intelligenz bei Google warnt eindringlich vor Gefahren
Erneut warnt ein Experte vor einer unkontrollierbaren Entwicklung besonders fortgeschrittener Künstlicher Intelligenz (KI). Geoffrey Hinton, führender KI-Entwickler beim US-Konzern Google, kündigte seinen Job und mahnte in der "New York Times" vom Montag, die Fortschritte im Feld der KI bedeuteten "ernste Risiken für die Gesellschaft und für die Menschheit". Hinton wird laut Zeitung auch "Godfather" der KI genannt.
Er sagte der Zeitung, der Wettbewerb bringe die Technologieunternehmen dazu, "in einem gefährlichen Tempo" immer neue KI zu entwickeln. Damit breiteten sich Falschinformationen aus und Arbeitsplätze gerieten in Gefahr. "Es ist schwierig sich vorzustellen, wie man die Bösen daran hindert, KI für böse Dinge einzusetzen", sagte Hinton.
Google und das Unternehmen OpenAI - das Startup, das den bekannten Chatbot ChatGPT entwickelt hat - begannen im vergangenen Jahr damit, lernende Systeme zu entwickeln, die dafür eine sehr viel größere Datenmenge als zuvor nutzen. Hinton sagte der "New York Times", diese Systeme würden aufgrund der schieren Datenmenge die menschliche Intelligenz in mancher Hinsicht in den Schatten stellen.
Mit Blick auf die Arbeitsplätze sagte Hinton etwa, Künstliche Intelligenz könne die "Sklavenarbeit" überflüssig machen. "Aber sie könnte noch viel mehr wegnehmen."
Der Zeitung zufolge kündigte der Entwickler seinen Job bei Google im vergangenen Monat. Sein Chef im Unternehmen, Jeff Dean, erklärte in einer Mitteilung an US-Medien, er danke Hinton für seine Arbeit. Dean betonte, Google habe als eines der ersten Unternehmen Leitsätze für die KI-Anwendung veröffentlicht. Google fühle sich auch weiterhin "zu einem verantwortungsvollen Umgang mit KI verpflichtet". Google lerne beim Verständnis der Risiken beständig dazu - und führe gleichzeitig weiterhin "kühn" Neuerungen ein.
Erst Ende März hatten der Technologie-Milliardär Elon Musk und zahlreiche Experten eine Pause bei der Entwicklung von besonders fortgeschrittener Künstlicher Intelligenz gefordert. "KI-Systeme mit einer Intelligenz, die Menschen Konkurrenz macht, können große Risiken für Gesellschaft und Menschheit bergen", warnten auch sie. "Mächtige KI-Systeme sollten erst dann entwickelt werden, wenn wir zuversichtlich sind, dass ihre Auswirkungen positiv und ihre Risiken kontrollierbar sind."
In einem offenen Brief zu einem Stopp der KI-Entwicklung verwiesen die Unterzeichner auf einen Satz von OpenAI-Gründer Sam Altman, demzufolge irgendwann eine "unabhängige" Überprüfung notwendig sei, bevor mit dem Training neuer Systeme begonnen werde. "Wir stimmen zu", schreiben die Verfasser des Briefes. "Der Zeitpunkt ist jetzt."
F.Pavlenko--BTB