ChatGPT liegt nicht falsch, wir stellen die falschen Fragen – Was ist Prompt Engineering und wie kann es Ihnen helfen, die richtigen Informationen aus künstlicher Intelligenz zu erhalten?
Quelle: eKapija
Donnerstag, 25.07.2024.
11:48
Kommentare
Abbildung (FotoPixabay.com/Gerd Altmann)
– Prompt Engineering ist der Prozess der Optimierung einer Anfrage, bis die gewünschte Antwort vom KI-Modell erhalten wird. Im Kontext der künstlichen Intelligenz ist Prompt Engineering wichtig, da es die Leistung großer Sprachmodelle verbessert, ohne dass das Modell selbst geändert werden muss – erklärt Tihomir Opačić, KI-Berater und Softwareentwickler mit über 25 Jahren Erfahrung, gegenüber eKapija. Sein Unternehmen Orange Hill Development organisiert auch KI-Beratungen und Schulungen für traditionelle Unternehmen und Softwareentwicklungsteams und bietet unter anderem auch Schulungen im Bereich Prompt Engineering an.
Die wichtigsten Komponenten eines guten Prompts sind laut unserem Interviewpartner klare Anweisungen, der Kontext, die Zuweisung einer bestimmten Rolle an das Modell, eine Aufforderung zur Formatierung, der Ton und ein Beispiel für eine Antwort.
– Komponenten wie klare Anweisungen und der Kontext sind für qualitativ hochwertige Antworten unerlässlich – fügt Tihomir hinzu, der Gründer und Eigentümer oder Miteigentümer zweier Unternehmen – Orange Hill Development und Viking Code, ist. Er ist außerdem Strategiedirektor bei CDT Hub und technischer Direktor beim niederländischen Unternehmen Coding Chiefs.
– Techniken wie Retrieval Augmented Generation (RAG) und die Implementierung von KI-Agenten können den Modellen helfen, auf die aktuellen Daten zuzugreifen und präzise Antworten zu geben – sagt Tihomir.
Diese Techniken ermöglichen es den Modellen, externe Datenquellen als Kontext zu verwenden, was die Genauigkeit und Relevanz der Antworten verbessert.
Tihomir Opačić (FotoNikola Mihaljević)
Was machen wir falsch, wenn wir Eingabeaufforderungen erstellen?
Die häufigsten Fehler, die Menschen machen, wenn sie mit großen Sprachmodellen sprechen, sind nicht eindeutige Eingabeaufforderungen (klare Anweisungen) und die Bereitstellung einer unzureichenden Datenmenge (des Kontexts).
– Die Menschen tappen dann in die Falle, indem sie das Modell darauf hinweisen, dass es einen Fehler gemacht hat, woraufhin das Modell sich meistens für den Fehler entschuldigt und dann eine andere unbefriedigende Antwort gibt, die leicht anders formuliert ist. Die meisten unbefriedigenden Antworten des Modells können durch die Bereitstellung eines breiteren Kontexts und klarerer Anweisungen gelöst werden – sagt Opačić.
Kompliziertere Probleme, erklärt er, erfordern den Einsatz fortgeschrittenerer Techniken des Prompt Engineering, wie z. B. Few-Shot-Prompting, Chain-of-Thought-Prompting, Tree-of-Thought-Prompting und andere Prompt Engineering-Techniken.
Die Zukunft des Prompt Engineering
Tihomir sagt voraus, dass Prompt Engineering in Zukunft noch wichtiger werden wird.
– In den letzten neun Monaten haben wir anhand der Antworten der neuen Versionen großer Sprachmodelle wie OpenAI GPT 4o und Anthropic Claude 3.5 gesehen, dass die Prompt-Engineering-Techniken in den Basismodellen selbst verwendet werden, um die Qualität ihrer Antworten zusätzlich zu verbessern. Natürlich ist es für uns als Benutzer dieser Systeme immer noch wichtig, gute Kenntnisse der Prompt-Engineering-Techniken zu haben, um leichter die Situationen erkennen zu können, in denen wir mit etwas Aufwand viel bessere Antworten erhalten können – sagt er.
In Zukunft, so glaubt der KI-Berater, können wir erwarten, dass das Modell selbst uns durch Gespräche dazu bringt, einige der effizienten Prompt-Engineering-Techniken zu verwenden, ohne dass wir als Benutzer überhaupt wissen, dass dies geschieht, und all dies, um die Qualität der Antworten zu verbessern. Informatiker auf der ganzen Welt, fügt er hinzu, veröffentlichen immer noch Forschungsergebnisse, in denen sie neue Prompt-Engineering-Techniken entdecken. Sie lassen sich oft von Techniken inspirieren, die entwickelt wurden, um die Produktivität von uns Menschen zu verbessern.
– Wenn wir Gespräche mit großen Sprachmodellen beobachten, ist es letztendlich sehr nützlich, eine Parallele zu Gesprächen zu ziehen, die wir mit Menschen führen. „Wenn wir eine Arbeitsaufgabe an einen Menschen oder ein Modell auslagern und nicht genügend qualitativ hochwertige Informationen und Anweisungen bereitstellen, wird die ausgelagerte Aufgabe nicht gut erledigt“, so das Fazit unseres Interviewpartners.
I. Žikić
Tags
Orange Hill Development
Viking Code
CDT HUB
Coding Chiefs
Tihomir Opačić
Prompt Engineering
ChatCTP
künstliche Intelligenz
KI
Kommunikation mit künstlicher Intelligenz
Kommentare
Ihr Kommentar
Naš izbor
Die wichtigsten Nachrichten
Vollständige Informationen sind nur für gewerbliche Nutzer/Abonnenten verfügbar und es ist notwendig, sich einzuloggen.
Verfolgen Sie Nachrichten, Angebote, Zuschüsse, gesetzliche Bestimmungen und Berichte auf unserem Portal.
Registracija na eKapiji vam omogućava pristup potpunim informacijama i dnevnom biltenu
Naš dnevni ekonomski bilten će stizati na vašu mejl adresu krajem svakog radnog dana. Bilteni su personalizovani prema interesovanjima svakog korisnika zasebno,
uz konsultacije sa našim ekspertima.