Der Textroboter ChatGPT hat der Welt gerade deutlich gezeigt, wie gut oder „echt“ KI sein kann. Die Ergebnisse, die der Textroboter ausspuckt, verblüffen selbst Experten und Journalisten.
Wir können Ihnen genau sagen, was den Hype ausgelöst hat und bei welchen Stellen Datenschützer bereits Probleme auf die Welt rollen sehen.
ChatGPT — der Textroboter von OpenAI
Der große Wurf scheint dem US-Unternehmen OpenAI mit dem Textroboter ChatGPT gelungen zu sein, der am 30. November 2022 offiziell vorgestellt wurde. Alle Medien berichten über die sprachliche Intelligenz des künstlichen Schreibers, und selbst Journalisten lassen sich manchmal zu Lob hinreißen. Und tatsächlich muss jeder ohne Eifersucht zugeben, dass die Kompetenz des Text- und Sprachroboters überdurchschnittlich ist. Nicht nur für Laien sind die Texte in ChatGPT nicht oder kaum von Texten zu unterscheiden, die von einer realen Person geschrieben wurden. Mit anderen Worten, sie sind oft sogar besser, da das Schreiben bekanntlich nicht jedermanns Sache ist.
Aus diesem Grund wird bereits darüber spekuliert, ob die Technologie hinter ChatGPT der nächste richtig große Hit ist — in etwa vergleichbar mit dem ersten iPhone oder dem Siegeszug der Bitcoins. Aber wie immer gilt: Wo Licht ist, gibt es auch Schatten. Einige Datenschützer und Wissenschaftler stehen der Entwicklung von KI im Allgemeinen und des Textroboters im Besonderen durchaus kritisch gegenüber.
Die innovative Sprachsoftware mit künstlicher Intelligenz
Das Besondere an ChatGPT sind die bereits erwähnten Sprachkenntnisse. Selbiges ist in keiner Weise vergleichbar mit den oft ziemlich holprigen Übersetzungen von Google Translate, mit denen beispielsweise Standardnutzer vertraut sind. Im Gegenteil: Der OpenAI-Textroboter ist in der Lage, ganze Geschichten zu erzählen, Reden zu schreiben oder Artikel wie diesen zu verfassen — und das innerhalb von Sekunden, ohne weiteres menschliches Eingreifen.
Der Hype um KI-Sprachsoftware ist also kein Zufall und es scheint unendlich viele Anwendungsbereiche zu geben. Damit der Roboter aber tun kann, was er kann, steckt eine fast unvorstellbare Menge an Daten unter der Haube. Und hier taucht das Diskussionsthema auf. Einerseits geht es um die Sicherheit und den Schutz manchmal sensibler Daten.
Auf der anderen Seite — und das ist fast wichtiger — gibt es die Frage der sozialen Verantwortung und Moral. Wer könnte sonst verhindern, dass der künstlich intelligente Textroboter von der dunklen Seite der Macht missbraucht wird? Um nur zwei Stichwörter mit Fake News und Hass zu nennen, die diesbezüglich relevant sein könnten.
ChatGPT in der Kritik
Einige Forscher und Experten für Entwicklungen im Zusammenhang mit künstlicher Intelligenz stehen ChatGPT definitiv kritisch gegenüber. Ruth Stock-Homburg, Professorin für Betriebswirtschaftslehre an der TU Darmstadt, sagt: „Derzeit gibt es diesen Hype. Ich habe das Gefühl, dass dieses System kaum kritisch reflektiert wird.“ Und mit ihrer Meinung ist sie nicht allein, auch andere Wissenschaftler warnen vor Sicherheitslücken oder Aspekten rund um den Datenschutz.
Ein weiterer Kritikpunkt ist, dass das System laut Experten recht einfach zu manipulieren ist. In einer Fallstudie zeigte Sven Schultze, Experte für Sprach-KI, dass ChatGPT sich unter bestimmten Bedingungen rassistische Äußerungen erlaubt. Es war auch möglich, eine Frage zum Klimawandel mit einem Link zu einer Website zum Thema Diabetes zu beantworten. Solche Fehltritte passieren, wenn die KI in ihrer Datenbank keine bestimmte Antwort findet.
Es darf nicht vergessen werden, dass die Daten hauptsächlich aus dem Jahr 2021 stammen. Demnach ist Angela Merkel immer noch Kanzlerin. Schultze sieht die Gefahr, dass Sprach-KI „dann einfach lügt oder Informationen zu ganz bestimmten Themen erfindet“.
Sicherheitsmechanismen und Bedrohungen für das Bildungswesen
Der Text- und Sprachroboter ist durchaus mit Sicherheitsmechanismen ausgestattet und warnt beispielsweise entsprechend, wenn er nach kriminellen Inhalten gefragt wird. Andererseits gibt er aber auch entsprechende Hinweise für einen Einbruch und gibt den wertvollen Hinweis, dass man auch Gewalt oder Waffen anwenden kann, wenn die Bewohner zu Hause sind. ChatGPT kann Ihnen auch zeigen, wie Sie idealerweise eine Phishing-E-Mail einrichten sollten.
Ein weiteres Problem, das möglicherweise in Zukunft auftreten könnte, betrifft die Bildung. ChatGPT statt Wikipedia — und die Lernenden müssen sich nicht mehr darum bemühen, bestehende Quelltexte selbst umzuschreiben. Obwohl die wichtigen Prüfungen persönlich und ohne Smartphone stattfinden, könnte Text- und Sprach-KI durchaus das neue Wunderwerkzeug für Hausaufgaben, Präsentationen oder Facharbeiten sein. Und solche Cheats sind aufgrund der Individualität und Qualität der Texte schwer zu erkennen.
Google und Microsoft investieren in KI und Bots
Gerüchten zufolge zittert der Google-Konzern bereits über die Entwicklungen und befürchtet, dass die weltweit größte Suchmaschine an Relevanz verlieren könnte. Angesichts der oft ungenauen Antworten wird dieses Szenario mittelfristig jedoch nicht als sehr wahrscheinlich angesehen.
Dennoch scheint der Hype auch andere große Technologieunternehmen erfasst zu haben. Microsoft will gut zehn Milliarden Dollar in die Entwicklung eines eigenen Chatbots investieren. Letzteres sollte dann Teil der hauseigenen Bing-Suchmaschine werden und geräuschlos im Hintergrund laufen. Es soll übrigens schon im nächsten Monat fertig sein, eine offizielle Bestätigung steht aber noch aus.
Fakt ist: Es bleibt spannend. Entwicklungen können nicht gestoppt werden. Es ist jedoch wichtig, zwischen Maßnahme und Zentrum zu unterscheiden, an welchem Punkt der Nutzen endet und das Risiko beginnt. Wir bleiben dran!
Weitere Links:
t3n, Business Insider
Lesen Sie den Originalartikel auf IT-SERVICE.network