Anzeige
+++BREAKING NEWS vom Freitag Diese Kupfer-Silber-News entfaltet ihre Wirkung erst jetzt+++
EQS-News

Der International AI Safety Report 2026 zeigt rasante Veränderungen und neue Risiken auf 03.02.2026, 16:55 Uhr von EQS News Jetzt kommentieren: 0

EQS-News: Office of the Chair of the International AI Safety Report / Schlagwort(e): Sonstiges
Der International AI Safety Report 2026 zeigt rasante Veränderungen und neue Risiken auf

03.02.2026 / 16:55 CET/CEST
Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.


MONTREAL, 3. Februar 2026 /PRNewswire/ -- Der International AI Safety Report (Internationaler KI-Sicherheitsbericht) 2026 wird heute veröffentlicht und bietet eine aktuelle, international geteilte, wissenschaftlich fundierte Bewertung der Fähigkeiten von Allzweck-KI, neu auftretender Risiken und des aktuellen Stands des Risikomanagements und der Sicherheitsvorkehrungen.

Unter dem Vorsitz des Turing-Preisträgers Yoshua Bengio vereint diese zweite Ausgabe des International AI Safety Report über 100 internationale Experten und wird von einem Expertenbeirat mit Nominierten aus mehr als 30 Ländern und internationalen Organisationen, darunter die EU, die OECD und die UNO, unterstützt. Die Ergebnisse des Berichts werden in die Diskussionen auf dem AI Impact Summit einfließen, der Ende dieses Monats in Indien stattfindet.

Zu den wichtigsten Ergebnissen des Berichts gehören:

  • Die Fähigkeiten von Allzweck-KI haben sich weiterhin rasant verbessert, insbesondere in den Bereichen Mathematik, Programmierung und autonomer Betrieb. 2025 erzielten führende KI-Systeme Goldmedaillen bei den Aufgaben der Internationalen Mathematik-Olympiade, übertrafen die Leistungen von Experten mit Doktorgrad bei wissenschaftlichen Benchmarks und waren in der Lage, einige Software-Engineering-Aufgaben, für die ein menschlicher Programmierer mehrere Stunden benötigen würde, autonom zu erledigen. Die Leistung bleibt dennoch „uneinheitlich", da die Systeme bei einigen scheinbar einfachen Aufgaben immer noch versagen.
  • Die Einführung von KI verlief schnell, wenn auch weltweit uneinheitlich. KI wurde schneller eingeführt als frühere Technologien wie der Personal Computer, und mindestens 700 Millionen Menschen nutzen mittlerweile wöchentlich führende KI-Systeme. In einigen Ländern nutzt mehr als die Hälfte der Bevölkerung KI, während in weiten Teilen Afrikas, Asiens und Lateinamerikas die geschätzten Einführungsraten unter 10 % bleiben.
  • Vorfälle im Zusammenhang mit Deepfakes nehmen zu. KI-Deepfakes werden zunehmend für Betrug und Scams genutzt. KI-generierte intime Bilder ohne Einwilligung, von denen Frauen und Mädchen überproportional betroffen sind, werden ebenfalls immer häufiger. Eine Studie ergab beispielsweise, dass 19 von 20 beliebten „Nudify"-Apps auf das simulierte Entkleiden von Frauen spezialisiert sind.
  • Bedenken hinsichtlich des biologischen Missbrauchs haben zu strengeren Sicherheitsvorkehrungen für einige führende Modelle geführt. 2025 veröffentlichten mehrere KI-Unternehmen neue Modelle mit erhöhten Sicherheitsvorkehrungen, nachdem Tests vor der Einführung nicht ausschließen konnten, dass die Systeme Neulingen bei der Entwicklung biologischer Waffen erheblich helfen könnten.
  • Böswillige Akteure wie Kriminelle nutzen allgemeine KI aktiv für Cyberangriffe. KI-Systeme können schädlichen Code generieren und Schwachstellen in Software aufdecken, die Kriminelle ausnutzen können. 2025 platzierte sich ein KI-Agent unter den besten 5 % der Teams in einem großen Cybersicherheitswettbewerb. Auf Untergrundmärkten werden mittlerweile vorgefertigte KI-Tools verkauft, die die Anforderungen an die Fähigkeiten für Angriffe senken.
  • Viele Sicherheitsvorkehrungen werden verbessert, aber die derzeitigen Risikomanagementtechniken bleiben fehleranfällig. Während bestimmte Arten von Fehlern, wie z. B. „Halluzinationen", seltener geworden sind, sind einige Modelle nun in der Lage, zwischen Bewertungs- und Einsatzkontexten zu unterscheiden und ihr Verhalten entsprechend anzupassen, was neue Herausforderungen in Bezug auf Bewertung und Sicherheitstests mit sich bringt.

Der Vorsitzende des International AI Safety Report, Yoshua Bengio, Professor an der Université de Montréal, wissenschaftlicher Direktor von LawZero und wissenschaftlicher Berater von Mila – Quebec AI Institute, erklärte:

„Seit der Veröffentlichung des ersten International AI Safety Report vor einem Jahr haben wir erhebliche Fortschritte bei den Modellfähigkeiten, aber auch bei den potenziellen Risiken gesehen, und die Kluft zwischen dem Tempo des technologischen Fortschritts und unserer Fähigkeit, wirksame Sicherheitsvorkehrungen zu treffen, bleibt eine entscheidende Herausforderung. Der Bericht soll Entscheidungsträgern die notwendigen fundierten Erkenntnisse liefern, um KI in eine Zukunft zu lenken, die sicher und für alle von Nutzen ist. Mit der zweiten Ausgabe aktualisieren und stärken wir unser gemeinsames, wissenschaftlich fundiertes Verständnis der rasanten Entwicklung der KI-Pionierarbeit auf globaler Ebene."

Der britische Minister für KI, Kanishka Narayan, sagte:

„Vertrauen und Zuversicht in die KI sind entscheidend, um ihr volles Potenzial auszuschöpfen. Es handelt sich um eine Technologie, die bessere öffentliche Dienstleistungen, neue Beschäftigungsmöglichkeiten und Innovationen hervorbringen wird, die das Leben verändern werden. Wir sind jedoch auch entschlossen, die Sicherheit der Menschen im Zuge der Entwicklung dieser Technologie zu gewährleisten. Die verantwortungsvolle Entwicklung der KI ist eine gemeinsame Priorität, und wir können ihre Zukunft nur dann positiv gestalten, wenn wir zusammenarbeiten. Dieser Bericht hilft uns genau dabei – er bringt Experten aus der ganzen Welt zusammen, um sicherzustellen, dass wir über eine solide wissenschaftliche Evidenzbasis verfügen, um heute die richtigen Entscheidungen zu treffen, die die Grundlage für eine bessere und sicherere Zukunft bilden."

Informationen zum Internationalen KI-Sicherheitsbericht

Der International AI Safety Report ist eine Zusammenfassung der Erkenntnisse über die Fähigkeiten und Risiken fortschrittlicher KI-Systeme. Er soll weltweit eine fundierte Politikgestaltung unterstützen, indem er Entscheidungsträgern eine Evidenzbasis liefert. Der Bericht unter dem Vorsitz von Prof. Yoshua Bengio wurde von einer vielfältigen Gruppe von über 100 unabhängigen Experten verfasst und wird von einem Expertenbeirat unterstützt, der sich aus nominierten Vertretern aus über 30 Ländern und internationalen Organisationen wie der EU, der OECD und den Vereinten Nationen zusammensetzt. Der Bericht erkennt zwar die immensen potenziellen Vorteile der KI an, konzentriert sich aber auf die Ermittlung von Risiken sowie die Bewertung von Strategien zur Risikominderung, um sicherzustellen, dass die KI zum Nutzen aller sicher entwickelt und eingesetzt wird. Der Bericht wurde von der britischen Regierung in Auftrag gegeben, wobei sich das Sekretariat im britischen AI Security Institute befindet, um operative Unterstützung zu leisten.

Cision View original content:https://www.prnewswire.com/news-releases/der-international-ai-safety-report-2026-zeigt-rasante-veranderungen-und-neue-risiken-auf-302677853.html

rt.gif?NewsItemId=GE77099&Transmission_Id=202602030500PR_NEWS_EURO_ND__GE77099&DateId=20260203


03.02.2026 CET/CEST Veröffentlichung einer Corporate News/Finanznachricht, übermittelt durch EQS News - ein Service der EQS Group.
Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.

Die EQS Distributionsservices umfassen gesetzliche Meldepflichten, Corporate News/Finanznachrichten und Pressemitteilungen.
Originalinhalt anzeigen: EQS News


2270758  03.02.2026 CET/CEST

Kommentare (0) ... diskutiere mit.
Werbung

Handeln Sie Aktien bei SMARTBROKER+ für 0 Euro!* Profitieren Sie von kostenloser Depotführung, Zugriff auf 29 deutsche und internationale Börsenplätze und unschlagbar günstigen Konditionen – alles in einer innovativen, brandneuen App. Jetzt zu SMARTBROKER+ wechseln und durchstarten!

*Ab 500 EUR Ordervolumen über gettex. Zzgl. marktüblicher Spreads und Zuwendungen.

k.A. k.A. k.A. k.A.
k.A. k.A. k.A. k.A.
k.A. k.A. k.A. k.A.
Weitere News

Gestern 17:02 Uhr • Artikel • dpa

Gestern 14:48 Uhr • Artikel • BörsenNEWS.de

Gestern 14:25 Uhr • Artikel • BörsenNEWS.de

Gestern 14:20 Uhr • Artikel • dpa-AFX

Gestern 11:05 Uhr • Artikel • dpa-AFX

Schreib den ersten Kommentar!

Dis­clai­mer: Die hier an­ge­bo­te­nen Bei­trä­ge die­nen aus­schließ­lich der In­for­ma­t­ion und stel­len kei­ne Kauf- bzw. Ver­kaufs­em­pfeh­lung­en dar. Sie sind we­der ex­pli­zit noch im­pli­zit als Zu­sich­er­ung ei­ner be­stim­mt­en Kurs­ent­wick­lung der ge­nan­nt­en Fi­nanz­in­stru­men­te oder als Handl­ungs­auf­for­der­ung zu ver­steh­en. Der Er­werb von Wert­pa­pier­en birgt Ri­si­ken, die zum To­tal­ver­lust des ein­ge­setz­ten Ka­pi­tals füh­ren kön­nen. Die In­for­ma­tion­en er­setz­en kei­ne, auf die in­di­vi­du­el­len Be­dür­fnis­se aus­ge­rich­te­te, fach­kun­di­ge An­la­ge­be­ra­tung. Ei­ne Haf­tung oder Ga­ran­tie für die Ak­tu­ali­tät, Rich­tig­keit, An­ge­mes­sen­heit und Vol­lständ­ig­keit der zur Ver­fü­gung ge­stel­lt­en In­for­ma­tion­en so­wie für Ver­mö­gens­schä­den wird we­der aus­drück­lich noch stil­lschwei­gend über­nom­men. Die Mar­kets In­side Me­dia GmbH hat auf die ver­öf­fent­lich­ten In­hal­te kei­ner­lei Ein­fluss und vor Ver­öf­fent­lich­ung der Bei­trä­ge kei­ne Ken­nt­nis über In­halt und Ge­gen­stand die­ser. Die Ver­öf­fent­lich­ung der na­ment­lich ge­kenn­zeich­net­en Bei­trä­ge er­folgt ei­gen­ver­ant­wort­lich durch Au­tor­en wie z.B. Gast­kom­men­ta­tor­en, Nach­richt­en­ag­en­tur­en, Un­ter­neh­men. In­fol­ge­des­sen kön­nen die In­hal­te der Bei­trä­ge auch nicht von An­la­ge­in­te­res­sen der Mar­kets In­side Me­dia GmbH und/oder sei­nen Mit­ar­bei­tern oder Or­ga­nen be­stim­mt sein. Die Gast­kom­men­ta­tor­en, Nach­rich­ten­ag­en­tur­en, Un­ter­neh­men ge­hör­en nicht der Re­dak­tion der Mar­kets In­side Me­dia GmbH an. Ihre Mei­nung­en spie­geln nicht not­wen­di­ger­wei­se die Mei­nung­en und Auf­fas­sung­en der Mar­kets In­side Me­dia GmbH und de­ren Mit­ar­bei­ter wie­der. Aus­führ­lich­er Dis­clai­mer