IT-Blog - News, Tipps und Ticks aus der IT

AI, AI, Käpt´n! Wie wir in Zeiten künstlicher Intelligenz die Kontrolle behalten.

Den allermeisten Lesern ist der Vormarsch Künstlicher Intelligenz (KI oder engl. AI) nicht verborgen geblieben. Und auch wenn es für den Einzelnen vielleicht bislang vermeintlich noch keine oder nur wenige Berührungspunkte gibt, so hat diese Entwicklung doch bereits ganz reale Auswirkungen: so haben beispielsweise Universitäten den Siegeszug der Künstlichen Intelligenz so lange verschlafen oder schlicht ignoriert, dass sie sich nun urplötzlich der Frage ausgesetzt sehen wie Abschlussarbeiten in Zeiten von ChatGPT überhaupt noch sinnvoll zu bewerten sind. Die Maschine holt Informationen in Sekundenbruchteilen ein, für die es früher wochenlanger mühseliger Recherche bedurft hätte; und formuliert sie auf Nachfrage bereits druckfertig aus. Die intellektuelle Eigenleistung der Studenten liegt hier nur noch auf dem Level eines Schimpansen, der sich eine Banane schält. Der Ruf wird laut nach alternativen Prüfungsformen. Bachelorarbeiten zum Beispiel, bei denen sich der Prüfling nicht monatelang in ein stilles Kämmerlein zurückziehen muss, sondern an praktischen Projekten mitwirkt- und ChatGPT nutzt, um Ergebnisse zu verschriftlichen, nicht sie zu produzieren.
Ist die Nutzung Künstlicher Intelligenz nun Betrug oder schlicht der nächste Schritt der Evolution?
Und geht, wer nicht mit der Zeit geht, allmählich unter? Wir wollen diesen Fragen nachgehen und uns auch Sicherheitsrisiken ansehen, die mit der Verbreitung Künstlicher Intelligenz Hand in Hand gehen.

DALL·E 2024-05-03 21.44.37 - A realistic portrayal of a chimpanzee thoughtfully peeling a banana, seated on a simple bench in an urban park setting. The chimpanzee appears calm an

Chancen und positive Aussichten von KI

Künstliche Intelligenz ist nicht nur ein technisches Wunderwerk – sie ist auch ein echter Game-Changer für Wirtschaft und Gesellschaft. Stellen Sie sich vor, KI könnte Ihnen nicht nur helfen, Kosten zu sparen, sondern auch Ihren Arbeitsalltag effizienter und dynamischer zu gestalten. Ja, es stimmt: einige Jobs, die sich durch Wiederholung auszeichnen, könnten in der KI-Ära weniger gefragt sein. Aber denken Sie an die neuen, spannenden Karrieremöglichkeiten, die entstehen: Jobs, bei denen es darum geht, diese smarten Maschinen zu bauen, zu trainieren und zu überwachen. Natürlich führen solche Überlegungen, denkt man sie ganz zu Ende, zur Erkenntnis, dass wir eines Tages sehr viel weniger Menschen brauchen werden, um die heutigen Arbeiten zu erledigen und dass es vielleicht nicht für jeden einen neu entstehenden Job geben wird. Industrielle Revolution 2.0 - oder 3.0? Hieran schließen sich Fragestellungen wie die nach einem bedingungslosen Grundeinkommen an; Fragen, die wir hier aber nicht diskutieren wollen oder können.

Die gute Nachricht ist: KI kann uns helfen, einige der kniffligsten Probleme zu knacken – von der Entlastung unserer überfüllten Straßen bis hin zur Revolutionierung unserer Gesundheitssysteme durch präzisere Diagnosen und Behandlungen. Wir stehen am Rande einer neuen Ära, in der KI nicht nur Arbeitsplätze umgestaltet, sondern auch unsere Gesellschaft innovativer und nachhaltiger macht. Aber wer überwacht das alles? 

Risiken für die IT-Sicherheit

Mit den bahnbrechenden Möglichkeiten, die KI bietet, wird es auch für Menschen ohne fundierte Kenntnisse machbar, sich etwa Code schreiben zu lassen und diesen zu missbrauchen, um in Systeme einzudringen. Hackerangriffe werden in diesem Moment also niedrigschwelliger. In anderen Bereichen, in denen beispielsweise professionelle Hacker KI nutzen, um ihre Angriffe zu perfektionieren und noch schneller und perfider zu machen, wird die von ihnen ausgehende Bedrohung potenziert. Dies bedeutet im Umkehrschluss, dass auch Sicherheitsmechanismen- zum Beispiel Antivirensoftwares- mit dieser Entwicklung Schritt halten und immer raffinierter werden und selbst auf KI-Basis operieren müssen, um noch einen wirksamen Schutz bieten zu können. Es nützt also nichts, die Augen vor dieser neuen Entwicklung zu verschließen und sich auf sein Glück zu verlassen, denn gerade automatisierte und KI-basierte Angreifer finden eines Tages das schwächste Glied in der Kette und überwinden es. Darum ist es so wichtig, immer auf dem aktuellsten Entwicklungsstand zu bleiben.

Kritik und Gegenwehr

In letzter Zeit häufen sich die Beschwerden und rechtlichen Auseinandersetzungen, vor allem wegen Bedenken hinsichtlich Datenschutz und Persönlichkeitsrechten. Aber was steckt eigentlich genau dahinter?

DALL·E 2024-05-06 14.45.51 - A person in a modern office environment, looking anxiously at a computer screen displaying a ChatGPT interface. The person, an adult with short hair a
Es begann alles mit Nutzerberichten und Datenschutzaktivisten, die darauf aufmerksam machten, dass ChatGPT möglicherweise zu freizügig mit persönlichen Daten umgeht. Die KI kann erstaunlich präzise Texte generieren, indem sie auf eine riesige Datenbank von online verfügbaren Informationen zurückgreift. Das Problem? Manchmal können diese Informationen sensible Daten enthalten oder die Privatsphäre der Personen verletzen, über die sie spricht.

Das erinnert stark an die Skandale um Facebook, bei denen es um den Umgang mit Nutzerdaten und deren Schutz ging. Erinnern Sie sich an das Cambridge Analytica-Debakel? Damals wurden Daten von Millionen Facebook-Nutzern ohne deren ausdrückliches Einverständnis gesammelt und für politische Werbung verwendet. Die Folgen? Ein massiver Vertrauensverlust und milliardenschwere Strafzahlungen. Bei OpenAI stehen ähnliche Dinge auf dem Spiel – das Vertrauen der Nutzer und das strenge Auge der Datenschutzbehörden.

DALL·E 2024-05-03 22.22.36 - A nuanced, realistic illustration showing public scrutiny and distrust towards AI, set inside a courthouse or parliamentary hall. The scene features a

Problem:
Transparenz und Verständnis von KI-Operationen

Eines der größten Probleme beim Einsatz von KI ist die mangelnde Transparenz darüber, wie diese Systeme funktionieren, welche Daten sie nutzen und was mit den Daten passiert, die in solche Systeme eingespeist werden. Für Unternehmen, insbesondere für kleinere und mittelständische Betriebe wie Optiker, Hörakustiker und Arztpraxen, kann dies zu erheblichen Risiken führen. Wenn sensitive Kundendaten verarbeitet werden, ohne dass klar ist, wo und wie diese genutzt und möglicherweise gespeichert oder weitergegeben werden, stehen nicht nur die Sicherheit dieser Informationen auf dem Spiel, sondern auch die Einhaltung gesetzlicher Datenschutzvorgaben. Dies unterstreicht die Notwendigkeit für Unternehmen, eine klare Linie in Bezug auf den Einsatz von KI zu ziehen und nur solche Technologien zu nutzen, deren Arbeitsweise und Umgang mit Daten vollständig nachvollziehbar und kontrollierbar ist.

Die Klagen gegen OpenAI zielen darauf ab, dass das Unternehmen transparenter machen soll, wie genau die KI trainiert wird, welche Daten sie nutzt und wie diese gesichert werden, um Missbrauch zu verhindern. Diese Forderungen sind nicht nur für die direkten Nutzer von ChatGPT relevant, sondern setzen auch einen wichtigen Präzedenzfall für die gesamte Tech-Industrie. Sollten diese Klagen Erfolg haben, könnten sie zu strengeren Regulierungen und höheren Standards beim Umgang mit KI und persönlichen Daten führen.

Weiteres Problem: Datenschutz

DALL·E 2024-05-06 15.20.29 - A conceptual image representing data privacy. The scene shows a large, metallic lock in the foreground, symbolizing security, with digital data stream

In einer Zeit, in der Datenschutz immer wichtiger und KI immer mächtiger wird, sind solche rechtlichen Auseinandersetzungen entscheidend dafür, wie wir als Gesellschaft mit den technologischen Fortschritten umgehen. Derzeit versuchen die Entwickler hinter OpenAI dadurch zu mauern, dass sie behaupten, die Algorithmen ließen sich nicht entsprechend regulieren und diese neue Technologie funktioniere nun einmal so. Ein bekanntes Schema, wenn etwas neues aufkommt, worauf die Gesellschaft und letztlich die Rechtsprechung noch keine adäquate Antwort gefunden hat. Doch insbesondere innerhalb der EU ist es wahrscheinlich, dass die Institutionen Antworten finden und Bußgelder verhängen werden, die die Unternehmen hinter KI zum Handeln zwingen. Und was passiert dann?

KI in Fesseln statt entfesselter KI?

Die Befürchtung steht im Raum, dass die strengen Regeln, die die DSGVO vorgibt und die hierzulande von den Datenschutzbehörden der Länder durchgesetzt werden müssen, zu einer starken Einschränkung der Performance von KI-Technologien führen könnte. Auch drohen von Regulation betroffene Unternehmen gerne an, dass sie sich im Falle restriktiver Rechtsprechung etwa vom europäischen Markt zurückziehen würden. Dass dies häufig jedoch nur Säbelrasseln ist, hat sich in der Vergangenheit bei der Lektüre der Jahresbilanzen etwa des Meta-Konzerns (Facebook/Instagram) gezeigt. In diesen Berichten wird immer wieder in Aussicht gestellt, dass sich der Konzern aus der EU zurückziehen müsse, sollte beispielsweise der Datentransfer zwischen europäischen Nutzern und US-amerikanischen Servern nicht mehr zulässig sein. Dieses Spannungsfeld besteht jedoch schon seit etlichen Jahren und die Plattformen gibt es noch immer auf dem europäischen Markt. Das zeigt uns vor allem eines: Europa ist ein zu wichtiger Marktplatz (Meta=25% des Umsatzes), als dass man ihn tatsächlich fallen lassen möchte. Und: die Institutionen der EU haben tatsächlich die Macht, die Praktiken selbst global agierender Unternehmen zu verändern und sie gewissermaßen in die Knie zu zwingen.
So sagte beispielsweise der französische Finanzminister Bruno Le Maire:
"Die digitalen Giganten müssen verstehen, dass der europäische Kontinent Widerstand leisten und seine Souveränität behaupten wird."

Was wir jetzt schon tun können

Wie so oft in der IT-Welt, ist es der Faktor Mensch, der eines der größten Sicherheitsrisiken darstellt. Daher finden wir in unserem eigenen Verhalten häufig eine der effektivsten Stellschrauben, um die Datensicherheit und letztlich die IT-Sicherheit von Privatpersonen und Unternehmen zu schützen. Und das auch, wenn die EU-und nationale Rechtsprechung noch hinterherhinkt. Denn: wenn wir beispielsweise verhindern wollen, dass wichtige Kundendaten, die wir mithilfe Künstlicher Intelligenz in eine KI-Datenbank einspeisen missbraucht wird und vielleicht gar im Internet auftaucht, liegt der Ball bei uns, dies auf einfachem Wege zu verhindern. Hier ist ein Leitfaden: 


1. Informierte Entscheidungen treffen:
Wählen Sie KI-Anwendungen und -Dienste, die transparent darüber sind, wie sie Daten sammeln und verwenden. Bevor Sie eine neue KI-Anwendung nutzen, lesen Sie die Datenschutzrichtlinien und stellen Sie sicher, dass Sie verstehen, was mit Ihren Daten geschieht.

2. Datenschutzeinstellungen nutzen:
Nutzen Sie aktiv die Datenschutz- und Sicherheitseinstellungen der KI-Anwendungen. Viele KI-Dienste, wie ChatGPT, bieten Einstellungen, die es erlauben, das Speichern von Daten zu limitieren oder zu verhindern. Stellen Sie diese Einstellungen gemäß Ihren Datenschutzbedürfnissen ein.

3. Vorsicht bei der Dateneingabe:
Seien Sie vorsichtig, welche Informationen Sie in KI-Systeme eingeben. Vermeiden Sie die Preisgabe von sensiblen oder persönlichen Informationen, besonders wenn es nicht klar ist, wie diese Informationen verwendet werden. So können Sie beispielsweise Datensätze zuvor anonymisieren, bevor Sie sie durch die KI jagen. Auch ein sparsamer Umgang mit dem eigenen Profil ist eine sehr gute Sicherheitsmaßnahme. So könnten Sie bei der Nutzung von ChatGPT etwa schreiben: Wir sind eine Metallbaufirma von internationaler Bedeutung und suchen eine Lösung für Problem XY, anstatt "Ich bin der Social Media Manager von Thyssen Krupp Sachsen und möchte unsere Top 3 Kunden miteinander vergleichen."

4. Nutzungsrechte und -möglichkeiten prüfen:
Informieren Sie sich über Ihre Rechte als Nutzer, einschließlich des Rechts auf Datenzugang und -löschung. Wenn ein KI-Dienst diese Möglichkeiten nicht bietet, sollten Sie erwägen, einen Anbieter zu wählen, der diese Rechte unterstützt.

5. Sicherheitspraktiken anwenden:
Sichern Sie Ihre Geräte und Zugänge zu KI-Diensten mit starken Passwörtern und Zwei-Faktor-Authentifizierung. Dies hilft, unbefugten Zugriff auf Ihre persönlichen Informationen zu verhindern.

6. Bewusstsein für Phishing und Betrug entwickeln:
Seien Sie wachsam gegenüber Phishing-Versuchen und betrügerischen KI-Anwendungen, die darauf abzielen könnten, Ihre Daten zu stehlen. Überprüfen Sie die Glaubwürdigkeit und Sicherheit der Quellen, bevor Sie Informationen eingeben.

Durch die Anwendung dieser Maßnahmen können Endnutzer einen sichereren und verantwortungsbewussteren Umgang mit KI gewährleisten, ihre Daten schützen und die Vorteile der Technologie genießen, ohne ihre persönliche Sicherheit zu gefährden.

Fazit

Die KI kann vieles bereits sehr gut, doch der Faktor Mensch ist und bleibt eine Unwägbarkeit. Unerlässlich ist es dennoch, dass am Ende des Tages stets Menschen vernunftbasierte Entscheidungen treffen, bei denen sie sich nicht blindlings auf die Künstliche Intelligenz verlassen, sondern Ergebnisse hinterfragen und prüfen. Insbesondere solange es noch keine ausreichenden rechtlichen Regulationen für die recht neuen KI-Modelle gibt, ist es an jedem Einzelnen, eigenverantwortlich die Sicherheit der eigenen Daten und der Daten anderer zu gewährleisten.

Bisher keine Kommentare

Sag uns, was du denkst!