Person mit Kopfhörern blickt lächelnd auf Handy, Bild-Overlay einer Illustration eines Roboterkopfes mit Sprechblasen und andere Symbolden
© denisismagilov | stock.adobe.com
Unternehmensberatung, Buchhaltung und Informationstechnologie, Fachgruppe

AI aus Österreich jenseits von ChatGPT

Club IT vom 08.05.2023

Lesedauer: 3 Minuten

10.11.2023

Warum in die Ferne schweifen, wenn das Gute so nah liegt? Die Berufsgruppe IT der UBIT Wien lud am 8. Mai zu einem informativen Abend, an dem das Thema Künstliche Intelligenz bzw. AI (Artificial Intelligence) aus Österreich von unterschiedlichen Aspekten beleuchtet und angeregt diskutiert wurde. AI ist durch das Large Language Model ChatGPT von OpenAI in aller Munde und die ganze Welt blickt in die USA auf Großkonzerne wie Google oder Microsoft. „Dabei muss man das Thema viel breiter angehen, abseits von ChatGPT“, meinte Albert Gerlach, stellvertretender Sprecher des IT-Ausschusses des Fachverband UBIT Wien.

Österreichische Unternehmen entwickeln schon seit langem exzellente KI-Systeme und müssen auch weiterhin gefördert werden. Da ist jetzt die Politik in Europa gefragt. Regulierungen mit Maß und Ziel sind gut, der KI-Standort Österreich und Europa muss allerdings für heimische Anbieter und Investoren attraktiv bleiben.

Effizienzsteigerung durch Enterprise AI

Man müsse die Aufmerksamkeit und das Bewusstsein für heimische AI-Systeme schärfen, meinte auch der Physiker René Heinzl, Geschäftsführer der Building Digital Solutions 421 GmbH.

Das Thema kommt und das Thema bleibt. In den nächsten Jahren sind wir eventuell schon an dem Punkt, dass Künstliche Intelligenz der menschlichen Intelligenz um nichts mehr nachsteht. Das bedeutet allerdings nicht, dass KI ein eigenes Bewusstsein bildet.

Vielmehr bieten sich nun dadurch für Unternehmen unzählige Möglichkeiten, Arbeitsprozesse effizienter zu gestalten. Heinzl stellte während seines Vortrags beeindruckende AI-Systeme seines Unternehmens vor, die in Bereichen von Retail über Abfallwirtschaft bis hin zum Recruiting Arbeitsprozesse vereinfacht. Das Prestige-Projekt von René Heinzl, eine hocheffiziente, KI-gestützte Mülltrennungsanlage für die Firma Brantner, wurde sogar mit dem Staatspreis Consulting ausgezeichnet. 

Wie schützt man AI-Systeme vor Hacker-Angriffen? 

Wie bei jeder Software, bringen auch AI-Systeme ihre Sicherheitsrisiken mit sich. Der IT-Consultant und Podcaster Manuel Pasieka wies allerdings gleich zu Beginn seines Vortrags darauf hin:

AI per se ist nicht böse oder gefährlich, sondern vielmehr die Angriffsmöglichkeiten, die sich Hackern bieten. Cyber Security wurde lange belächelt, ist allerdings im Moment so wichtig wie nie zuvor.

Großunternehmen haben im Normalfall gut geschulte Teams, die Attack-Szenarien durchspielen und die Systeme dann entsprechend schützen. Bei einem geringeren Budget empfiehlt es sich intern die Prozesse und Angriffsmöglichkeiten zu analysieren, also ein sogenanntes AI threat modelling durchzuführen, und anschließend einen Consultant zu beauftragen, der Lösungen zur Sicherheit erarbeitet. Der Experte warnt außerdem davor, dass nicht nur die Angriffe auf KI-Systeme zunehmen werden, sondern auch die Angriffe mit KI auf die Software von Unternehmen. Vor allem Phishing-Attacken nehmen laufend zu. Künstliche Intelligenz kann bereits jetzt erstaunlich gut Texte einer Person imitieren bzw. fälschen, wenn sie genügend guten Input erhält.

Überflieger-Startup aus Österreich 

Und genau für die ethisch korrekte Nutzung von AI setzen sich Sebastian De Ro und sein Team bei magic.dev ein. Das Startup wurde vor einem Jahr gegründet und konnte bisher schon 28 Millionen Dollar an Investments an Land ziehen, 21 Millionen davon alleine von Google. Eine Leistung, die sich sehen lassen kann. Sie fragen sich wofür? Kurz gesagt: mit magic.dev generiert sich Programmcode nahezu wie durch Geisterhand selbst, wie Sebastian De Ro live während seines Vortrags demonstrierte. Das Besondere an dem Programm ist, andere AI-Systeme haben ein Kontext-Size-Limit, während Nutzer von magic.dev auf große Datenmengen und ganze Repositories zugreifen können, aus der sich die KI anschließend ihre Informationen holt, um den Programmcode sinnvoll zu ergänzen und zu erstellen. So soll die Code-Entwicklung in Zukunft vollständig automatisiert werden können. De Ro merkte abschließend an:

Wir müssen allerdings noch dafür sorgen, dass AI wirklich nur das tut, was wir von ihr wollen und nicht, was wir ihr schreiben. 

Unbedacht angewendet und in den falschen Händen, kann AI auch unter gefährlich werden. Daher müssen folgende Fragen geklärt werden:

  • Was darf als Trainings Daten für die Systeme verwendet werden?
  • Welche Werte fließen hier ein?
  • Nach welcher Ethik wird gefiltert?
  • Und in wessen Hände legt man die Verantwortung dafür – Staat oder Privatunternehmen? 

Spannende, rasante Entwicklungen und noch viele ungeklärte Fragen. Lassen wir uns überraschen, was die Zukunft in diesem Bereich noch für uns bereithält.