Im vergangenen November hat uns hier im IBM Client Innovation Center einmal mehr unser jährlicher #SumIT begeistert. Das Online-Event, bei dem viele unserer Expert:innen spannende Insights zu verschiedensten Themen aus Bereichen wie #AI, #Cloud und #Agile liefern, bietet dem gesamten Team eine attraktive Möglichkeit für Austausch und Diskussion.
Einer unser CIC SumIT Speaker ist Full-Stack-Entwickler Simon. Simon arbeitet seit über einem Jahr im IBM CIC am Standort Magdeburg und engagiert sich insbesondere für den Bereich AI.
Lieber Simon, was war deine Motivation, als Speaker am CIC SumIT teilzunehmen?
„Ich bin großer AI-Fan. Offensichtlich ist das Thema gerade in aller Munde und genau deswegen ist die Aufklärung in diesem Bereich so wichtig. Dazu will ich gerne einen Beitrag leisten. Zusätzlich ist es mir persönlich wichtig, dass alle meine Kolleg:innen im Hinblick auf Artificial Intelligence gut geschult sind. Der SumIT ist dafür die ideale Gelegenheit!“
Was ist die Quintessenz deines Vortrags?
„Viele unserer Kolleg:innen wissen, wie man Auto fährt, doch nicht unbedingt, wie ein Dieselmotor funktioniert. Und ganz ähnlich verhält es sich beim Arbeiten mit Large Language Models. Meinen Vortrag wollte ich nutzen, um etwas Licht in diese Blackbox zu bringen. Im Fokus steht deswegen nicht das Prompten per se, sondern Fragen wie: Was ist die zugrundeliegende Funktionsweise, mit der eine AI einen Satz in eine andere Sprache übersetzt? – Man muss nicht notwendigerweise wissen, wie LLMs eine Antwort generieren, um das Tool zu nutzen. Es hilft aber ganz grundsätzlich zu verstehen, wie ein System, mit dem man tatsächlich arbeitet, funktioniert.
Ein Beispiel: Ein Translator „liest“ eine Eingabe sequentiell. Weiß man das, weiß man auch, dass man einen Prompt am besten mit der von dem Tool gewünschten Ausgabe beginnt, jeglicher Kontext sollte erst danach folgen. Das ist ein Weg, um die Qualität des AI-generierten Outputs zu erhöhen.
Gleichzeitig wollte ich auf die „Vulnerabilities in LLMs“ aufmerksam machen. Auch eine deployte Software ist letztendlich ein Stück Software – und die hat nunmal Bugs. Bei dieser Technologie kommt noch dazu, dass Angreifer diese manipulieren können. Mit dem richtigen Prompt können Sicherheitsmechanismen ausgehebelt werden und ein LLM schnell in die Irre geführt werden. Das bringt Risiken wie das ungewollte Leaken vertraulicher Informationen mit sich. Denn mit der „Backdoor“ einer LLM verhält es sich genauso wie mit der einer Software: Sie ist fatal. Zu verstehen, wie ein Large Language Model funktioniert ist also unerlässlich – zum einen, um solche Risiken zu minimieren, zum anderen, um LLMs so effektiv und output-orientiert wie möglich zu nutzen und seine eigene Produktivität zu steigern!“
Du möchtest auch zu den KI-Kenner:innen gehören oder persönlich von ihnen lernen?
Hier findest du den passenden Job für dich 👉🏻 Karriere im IBM CIC