Die am Dienstag veröffentlichte Stellungnahme besteht nur aus einem Satz, der aber dramatisch klingt: "Das Risiko einer Vernichtung durch KI zu verringern sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmasses sein, wie etwa Pandemien und Atomkrieg." Die Nonprofit-Organisation, auf deren Website der Text erschien, nennt als mögliche Gefahren von Künstlicher Intelligenz ihren Einsatz in der Kriegsführung, etwa in der Luft oder durch die Entwicklung neuer Chemiewaffen. Auch warnt das in San Francisco ansässige Center for AI Safety (Zentrum für KI-Sicherheit) etwa vor der Verbreitung von Falschinformationen mit Hilfe der Technologie sowie einer Zukunft, in der die Menschheit komplett von Maschinen abhängig werden könnte.
Topics:
Cash - "Aktuell" | News considers the following as important: News
This could be interesting, too:
Cash - "Aktuell" | News writes US-Zollpolitik, Zinsen, Ukraine und Unternehmenszahlen: Diese Themen dominieren die Börsen in der nächsten Woche
Cash - "Aktuell" | News writes Berkshire Hathaway von Warren Buffett erwirtschaftet erneut Rekordgewinn
Cash - "Aktuell" | News writes Gelsenkirchen: Von der Boomtown zum Menetekel der Deindustrialisierung
Cash - "Aktuell" | News writes Mehr Risikokapital für Schweizer Jungfirmen
Die am Dienstag veröffentlichte Stellungnahme besteht nur aus einem Satz, der aber dramatisch klingt: "Das Risiko einer Vernichtung durch KI zu verringern sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmasses sein, wie etwa Pandemien und Atomkrieg." Die Nonprofit-Organisation, auf deren Website der Text erschien, nennt als mögliche Gefahren von Künstlicher Intelligenz ihren Einsatz in der Kriegsführung, etwa in der Luft oder durch die Entwicklung neuer Chemiewaffen. Auch warnt das in San Francisco ansässige Center for AI Safety (Zentrum für KI-Sicherheit) etwa vor der Verbreitung von Falschinformationen mit Hilfe der Technologie sowie einer Zukunft, in der die Menschheit komplett von Maschinen abhängig werden könnte.