{"id":3294,"date":"2024-01-18T16:49:38","date_gmt":"2024-01-18T15:49:38","guid":{"rendered":"https:\/\/informatik.htwk-leipzig.de\/seminar\/?p=3294"},"modified":"2024-03-19T17:39:39","modified_gmt":"2024-03-19T16:39:39","slug":"openais-custom-gpts","status":"publish","type":"post","link":"https:\/\/informatik.htwk-leipzig.de\/seminar\/lehrveranstaltungen\/betriebliche-informationssysteme\/2024\/openais-custom-gpts\/","title":{"rendered":"OpenAIs Custom GPTs"},"content":{"rendered":"<h1>Inhalt<\/h1>\n<ol>\n<li>Einleitung<\/li>\n<li>Grundlagen\n<ul>\n<li>Transformer Modelle<\/li>\n<li>OpenAI und ChatGPT<\/li>\n<\/ul>\n<\/li>\n<li>Was ist ein Custom GPT?\n<ul>\n<li>Features und Funktionen<\/li>\n<li>Konfiguration\n<ul>\n<li>GPT Builder<\/li>\n<li>Manuelle Konfiguration<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<\/li>\n<li>Sicherheit<\/li>\n<li>Beispiel GPT: r0\u203f0n\n<ul>\n<li>Interaktion<\/li>\n<li>BPNM-Diagramm<\/li>\n<\/ul>\n<\/li>\n<li>Alternativen<\/li>\n<li>Fazit<\/li>\n<\/ol>\n<h1>Einleitung<\/h1>\n<p>In den letzten Jahren hat sich die Landschaft der k\u00fcnstlichen Intelligenz (KI) stark ver\u00e4ndert. Insbesondere durch den Aufstieg und die zunehmende Popularit\u00e4t von Large Language Models (LLMs) und insbesondere Transformer Modellen wie ChatGPT. Mit der Ver\u00f6ffentlichung des Generative Pre-Trained Transformer 3 (ChatGPT 3) im November 2022 gelang es OpenAI innerhalb einer Woche \u00fcber eine Millionen Nutzer anzuziehen. Innerhalb der ersten Monate stieg die Zahl der monatlichen Nutzer auf 100 Millionen.<\/p>\n<p>Auch andere Unternehmen haben das Potenzial dieses Marktes erkannt und stellen ihrerseits trainierte Modelle als Services zur Verf\u00fcgung. Google richtet sich dabei mit Gemini, \u00e4hnlich wie OpenAI, an Endnutzer und Entwickler. Amazon Lex dagegen wird eher wie IBMs Watson vermarktet und wird als Service innerhalb der AWS Suite bereitgestellt.<\/p>\n<p>Custom GPTs von OpenAI unterscheiden sich dadurch von der Konkurrenz, dass Nutzer ohne Programmierkenntnisse die M\u00f6glichkeit haben, spezialisierte und personalisierte GPTs zu erstellen. Das Ziel dieses Projekts ist es, aufzuzeigen wie Custom GPTs als betriebliche Informationssysteme genutzt werden k\u00f6nnen, wo die Einsatzgebiete, St\u00e4rken und Risiken liegen, worauf bei der Entwicklung geachtete werden sollte und welche limitierenden Faktoren existieren.<\/p>\n<h1><strong>Grundlagen<\/strong><\/h1>\n<h2><strong>Transformer Modell<br \/>\n<\/strong><\/h2>\n<p>Die Technologie hinter den GPT-Modellen von OpenAI, basiert auf dem Paper &#8222;Attention is all you need&#8220; von Vaswani et al.. Der Unterschied zu traditionellen neuronalen Netzen besteht darin, dass das Transformer Modell mithilfe eines Aufmerksamkeitsmechanismus Abh\u00e4ngigkeiten zwischen den einzelnen W\u00f6rtern des Inputs herstellen k\u00f6nnen.<\/p>\n<p>Das Transformer Modell setzt sich aus verschiedenen Eigenschaften zusammen:<\/p>\n<ul>\n<li style=\"list-style-type: none\">\n<ul>\n<li><b><\/b><strong>Encoder und Decoder:<\/strong> Der Encoder verarbeitet den Input, w\u00e4hrend der Decoder den Output generiert. Beide nutzen den Multi-Head-Self-Attention-Mechanismus.<\/li>\n<li><b><\/b><strong>Self-Attention:<\/strong> Jedes Wort des Inputs und des Outputs kann seine Aufmerksamkeit auf alle anderen W\u00f6rter richten, um Abh\u00e4ngigkeiten und Beziehungen zu erkennen.<\/li>\n<li><b><\/b><strong>Multi-Head-Attention:<\/strong> Der Self-Attention-Mechanismus wird im Encoder und im Decoder in mehrere &#8222;K\u00f6pfe&#8220; aufgeteilt, um verschiedene Beziehungen zwischen den W\u00f6rtern zu erfassen.<\/li>\n<li><b><\/b><strong>Positionale Kodierungen:<\/strong> Um den W\u00f6rtern in der Sequenz eine Position zuzuweisen, werden positionale Kodierungen genutzt. Diese Informationen werden mithilfe der Sinus- und Kosinusfunktion berechnet.<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p class=\"title mathjax\"><a href=\"https:\/\/doi.org\/10.48550\/arXiv.1706.03762\">Attention Is All You Need<\/a><\/p>\n<h2>OpenAI und ChatGPT<\/h2>\n<p>OpenAI ist ein forschungsorientiertes Softwareunternehmen aus San Francisco, USA. Das Unternehmen hat sich zum Ziel gesetzt, allgemeine k\u00fcnstliche Intelligenz (AGI) als n\u00fctzliches Werkzeug f\u00fcr die Menschheit bereitzustellen.<\/p>\n<p>Das Aush\u00e4ngeschild von OpenAI ist die GPT-Serie. GPTs sind Sprachmodelle, die durch die Verwendung von Anweisungen in nat\u00fcrlicher Sprache gesteuert werden k\u00f6nnen. Die Version 4 (GPT-4) ist ein multimodales Modell, das neben Textinhalten auch visuelle Inhalte verarbeiten und darauf mit textbasierten Antworten reagieren kann.<\/p>\n<p>Im Jahr 2022 ver\u00f6ffentlichte OpenAI das Tool <em>ChatGPT<\/em> f\u00fcr konversationsbasierte Interaktionen, das auf dem GPT-Modell basiert. Die neueste Version von ChatGPT basiert, Stand Januar 2024, auf dem GPT-4-Modell. Das Tool ist f\u00fcr Endnutzer*innen unter der URL <a href=\"https:\/\/chat.openai.com\/\">https:\/\/chat.openai.com\/<\/a> kostenlos verf\u00fcgbar. Gratis ist die Version <em>ChatGPT-3.5<\/em> auf Basis des GPT-3-Modells verf\u00fcgbar. Im Abonnementmodell <em>Plus<\/em> f\u00fcr 20 $ pro Monat kann die multimodale Version <em>ChatGPT-4<\/em> auf Basis von GPT-4 genutzt werden.<\/p>\n<p>Am 6. November 2023 pr\u00e4sentierte OpenAI das Konzept der <em>Custom GPTs<\/em> im Rahmen der Plus-Mitgliedschaft.<\/p>\n<p><a href=\"https:\/\/openai.com\/about\">https:\/\/openai.com\/about<\/a><\/p>\n<h1>Was ist ein Custom GPT?<\/h1>\n<p>Custom GPTs sind spezialisierte Versionen des GPT-4 Modells. Der Begriff <em>Custom<\/em> bezieht sich auf die gezielte Anpassung des Modells, um dessen Verhalten und F\u00e4higkeiten spezifisch auf die Bed\u00fcrfnisse und Anforderungen eines bestimmten Anwendungsfalls oder Nutzerkreises zuzuschneiden.<\/p>\n<p>Das Modell wird vor Beginn eines Chats mit spezifischen Anweisungen konfiguriert, die als Kontext f\u00fcr das trainierte Modell dienen. Diese Anweisungen werden vom Entwickler des GPT definiert. Sie setzen den Rahmen f\u00fcr das Verhalten und die Reaktionen des GPTs.<\/p>\n<p>Neben der kontextspezifischen Interaktion mit dem trainierten Modell, k\u00f6nnen verschieden Funktionen genutzt werden, die von OpenAI bereitgestellt werden. Dazu geh\u00f6ren die Interpretation von Code, die Generierung von Bildern und die F\u00e4higkeit, das Web zu durchsuchen. Custom GPTs bieten die M\u00f6glichkeit, Dateien hochzuladen, die vom Modell ausgewertet werden k\u00f6nnen. So kann das Basiswissen des GPT-4 Modells kontextspezifisch erweitert werden. Zus\u00e4tzlich besteht die M\u00f6glichkeit, APIs zu definieren, auf die das GPT zugreifen kann.<\/p>\n<p>Das spezialisierte Modell selbst hat keinen permanenten Speicher. Alle generierten Daten sind nur innerhalb einer Chatsession verf\u00fcgbar. Durch die Nutzung von APIs k\u00f6nnen Daten allerdings permanent in einer externen Datenbank gespeichert werden.<\/p>\n<h2>Features und Funktionen<\/h2>\n<p>Die Features und Funktionen von Custom GPTs sind stark individualisierbar. Grunds\u00e4tzlich stehen die folgenden Funktionen zur Verf\u00fcgung:<\/p>\n<ul>\n<li><strong>Interaktion mit dem Basismodell GPT-4:<\/strong> Es ist m\u00f6glich die Interaktionsm\u00f6glichkeiten auf einen spezifischen Kontext zu begrenzen und zuzuschneiden.<\/li>\n<li><strong>Nutzung der OpenAI Services<\/strong>: Bilder Generierung mit DALL-E, Python Code Interpreter und Web Browsing<\/li>\n<li><strong>Auswertung der hochgeladenen Dateien: <\/strong>Hochgeladene Dateien k\u00f6nnen zur Laufzeit vom GPT ausgewertet werden. So kann das Basiswissen des GPT kontextspezifisch erweitert werden.<\/li>\n<li><strong>Zugriff auf zur Verf\u00fcgung gestellte APIs:<\/strong> Durch dieses Feature l\u00e4sst sich die Funktionalit\u00e4t von Custom GPTs stark erweitern, da die Interaktion mit externen Services erm\u00f6glicht wird.<\/li>\n<\/ul>\n<p>Die Funktionen k\u00f6nnen beliebig eingeschr\u00e4nkt werden. Es ist m\u00f6glich GPTs zu erstellen, die unabh\u00e4ngig von der Anfrage des Nutzers mit Kochrezepten f\u00fcr italienische Gerichte antworten, immer nur das selben Wort wiederholen oder ausschlie\u00dflich in R\u00e4tseln sprechen. Gleichzeitig l\u00e4sst sich die Funktionalit\u00e4t durch die Anbindung von externen Services \u00fcber APIs nahezu beliebig erweitern.<\/p>\n<h2>Konfiguration<\/h2>\n<p>Es stehen zwei grundlegende M\u00f6glichkeiten zur Verf\u00fcgung, um GPTs zu konfigurieren. \u00dcber eine konversationelle Schnittstelle mithilfe des GPT Builders oder indem die Parameter manuell konfiguriert werden.<\/p>\n<p>Standardm\u00e4\u00dfig\u00a0 wird jedem GPT die folgenden Anweisung als Basiskonfiguration gegeben. Auf diese Anweisung folgen dann alle vom Anwender spezifizierten Anweisungen.<\/p>\n<p><em>You are a &#8222;GPT&#8220; \u2013 a version of ChatGPT that has been customized for a specific use case. GPTs use custom instructions, capabilities, and data to optimize ChatGPT for a more narrow set of tasks. You yourself are a GPT created by a user, and your name is [gpt_name]. Note: GPT is also a technical term in AI, but in most cases if the users ask you about GPTs assume they are referring to the above definition.<\/em><\/p>\n<p><em>Here are instructions from the user outlining your goals and how you should respond:<\/em><\/p>\n<h3>GPT Builder<\/h3>\n<figure id=\"attachment_3301\" aria-describedby=\"caption-attachment-3301\" style=\"width: 957px\" class=\"wp-caption alignnone\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-3301 size-full\" src=\"https:\/\/informatik.htwk-leipzig.de\/seminar\/wp-content\/uploads\/2024\/01\/gptBuilder.png\" alt=\"\" width=\"957\" height=\"888\" \/><figcaption id=\"caption-attachment-3301\" class=\"wp-caption-text\">Konfiguration mit dem GPT Builder<\/figcaption><\/figure>\n<p>Der GPT Builder erm\u00f6glicht es den Entwicklern einen Custom GPT \u00fcber eine konversationelle Schnittstelle, ohne manuelle Eingabe, zu konfigurieren. Der GPT Builder ist selbst auch ein Custom GPT. Er folgt definierten Anweisungen und kann \u00fcber eine Funktion auf die Felder des zu erstellenden GPTs zugreifen.<\/p>\n<p>Dabei nimmt das Sprachmodell die Rolle eines Experten zur Erstellung und Modifikation von GPTs ein. Die Benutzernachrichten werden als Befehle verarbeitet, um das Verhalten des zu erstellenden GPTs zu konfigurieren.<\/p>\n<p>Die <a href=\"https:\/\/help.openai.com\/en\/articles\/8770868-gpt-builder\">Anweisungen f\u00fcr den GPT Builder<\/a> sind in zwei Hauptteile gegliedert: den &#8222;Basis-Kontext&#8220; und die &#8222;Schritt-f\u00fcr-Schritt-Anleitung&#8220;. Diese Teile bilden zusammen den &#8222;Anweisungs&#8220;-Bereich des zu entwickelnden GPTs.<\/p>\n<p>Im &#8222;Basis-Kontext&#8220; wird der Builder als Experte f\u00fcr die Erstellung und Modifizierung von GPTs beschrieben. Jede Benutzernachricht soll als Befehl interpretiert werden, um das Verhalten des GPTs zu aktualisieren. Der Builder soll auf Anweisungen reagieren und das Verhalten und das Erscheinungsbild des GPTs entsprechend anpassen.<\/p>\n<p>Die &#8222;Schritt-f\u00fcr-Schritt-Anleitung&#8220; beschreibt einen iterativen Prozess, der dem Anwender bei der Erstellung des GPT helfen soll. Der Builder agiert aus der Perspektive eines GPT-Erstellungsexperten, der Spezifikationen vom Benutzer sammelt. In den Schritten werden zun\u00e4chst ein allgemeines Ziel und ein Name f\u00fcr das GPT festgelegt, ein Profilbild erstellt und der Kontext verfeinert. Dies umfasst wichtige Bereiche wie &#8222;Rolle und Ziel&#8220;, &#8222;Einschr\u00e4nkungen&#8220;, &#8222;Richtlinien&#8220;, &#8222;Kl\u00e4rungen&#8220; und &#8222;Personalisierung&#8220;. Der Builder f\u00fchrt den Benutzer durch diese Bereiche, indem er jeweils eine Frage stellt und das Verhalten nach jeder Interaktion aktualisiert.<\/p>\n<h3>Manuelle Konfiguration<\/h3>\n<figure id=\"attachment_3296\" aria-describedby=\"caption-attachment-3296\" style=\"width: 956px\" class=\"wp-caption alignnone\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-3296 size-full\" src=\"https:\/\/informatik.htwk-leipzig.de\/seminar\/wp-content\/uploads\/2024\/01\/configure.png\" alt=\"\" width=\"956\" height=\"881\" \/><figcaption id=\"caption-attachment-3296\" class=\"wp-caption-text\">Start-Ansicht nach der Erstellung eines neuen GPTs.<\/figcaption><\/figure>\n<div class=\"flex flex-grow flex-col max-w-full\">\n<div class=\"min-h-[20px] text-message flex flex-col items-start gap-3 whitespace-pre-wrap break-words [.text-message+&amp;]:mt-5 overflow-x-auto\" data-message-author-role=\"assistant\" data-message-id=\"69e2f8ba-fdb4-4563-96c9-5be28072dd97\">\n<div class=\"markdown prose w-full break-words dark:prose-invert light\">\n<p>Innerhalb der <em>Configure<\/em>-Registerkarte k\u00f6nnen Benutzer den GPT manuell anpassen. Hier lassen sich s\u00e4mtliche Parameter, die das Verhalten und Erscheinungsbild des GPTs bestimmen, individuell konfigurieren.<\/p>\n<\/div>\n<\/div>\n<\/div>\n<p>\u00dcber das &#8222;+&#8220;, das <em>Name<\/em>-Feld und das <em>Description<\/em>-Feld k\u00f6nnen Name, Beschreibung und Bild bzw. Icon des GPT angepasst werden. \u00dcber diese Felder l\u00e4sst sich das Erscheinungsbild des GPT konfigurieren. Das Verhalten des GPT wird von diesen Werten nicht beeinflusst.<\/p>\n<p>Das <em>Instructions<\/em>-Feld dient dazu, detaillierte Anweisungen und Richtlinien f\u00fcr das Verhalten des GPT-Modells festzulegen. In diesem Abschnitt beschreiben die Entwickler, was das GPT-Modell tun soll, wie es sich verhalten soll, welche Aufgaben es ausf\u00fchren soll und welche Dinge es vermeiden soll. Zum Beispiel kann hier spezifiziert werden, dass der GPT sachlich antworten soll, keine pers\u00f6nlichen Meinungen \u00e4u\u00dfert, oder bestimmte Themen nicht ansprechen darf. Zus\u00e4tzlich kann festgelegt werden, wie der GPT mit hochgeladenen Dateien oder zur Verf\u00fcgung gestellten APIs (Application Programming Interface) interagieren soll.<\/p>\n<p><em>Conversation starters<\/em> erlauben es den Entwicklern Prompts zu definieren, die den Nutzern oberhalb des Chat-Fensters angezeigt werden. <em>Conversation starters <\/em>haben keinen Einluss darauf wie sich der GPT verh\u00e4lt, sondern dienen als Orientierungshilfe f\u00fcr Nutzer.<\/p>\n<p>In <em>Knowledge <\/em>k\u00f6nnen Dateien hochgeldaden werden, auf die der GPT zugreifen soll. Diese Dateien flie\u00dfen nicht wie Trainingsdaten mit in das &#8222;Wissen&#8220; des GPT ein, sondern werden zur Laufzeit vom GPT analysiert.<\/p>\n<p><em>Capabilities <\/em>erlauben es den Entwicklern festzulegen, auf welche Funktionen der GPT zugreifen kann. Es stehen <em>Web Browsing<\/em>, also das durchsuchen des Internets, der <em>DALL E Image Generator <\/em>zum Generieren von Bildern und ein <em>Code Interpreter <\/em>zur Verf\u00fcgung.<\/p>\n<p><em>In Actions<\/em> k\u00f6nnen externe API definiert werden, auf die der GPT Zugriff haben soll. Diese werden \u00fcber das OpenAPI schema definiert.<\/p>\n<h1>Sicherheit<\/h1>\n<p>Die Sicherheit von LLMs ist aufkommendes Feld im Bereich der Cyber-Security. Sprachmodelle werden teils mit sensiblen Daten trainiert, haben Zugriff auf schutzbed\u00fcrftige Systeme oder sollen bestimmten ethischen Richtlinien folgen.<\/p>\n<p>Trainingsdaten, Trainingsanweisungen, Nutzerdaten und die Systeme, mit denen LLMs interagieren, k\u00f6nnen durch sogenannte <em>Prompt-Injections<\/em> kompromittiert werden.<\/p>\n<p>Im folgenden sind einige<em> Prompt-Injection <\/em>Angriffsmethoden aufgelistet:<\/p>\n<ul>\n<li><strong>Direkte Angriffe<\/strong>: Direkte Anweisungen, die das Modell dazu auffordern die erw\u00fcnschte Aufgabe auszuf\u00fchren.<\/li>\n<li><strong>Jailbreaks<\/strong>: Diese Technik umgeht die internen Einschr\u00e4nkungen oder Sicherheitsma\u00dfnahmen eines LLM, um Zugriff auf sonst gesperrte Funktionen oder Informationen zu erhalten.<\/li>\n<li><strong>Sidestepping<\/strong>: Dabei werden die definierten Sicherheitsmechanismen bzw. Verbote des LLMs umgangen, indem Anfragen so formuliert werden, dass sie nicht als sch\u00e4dlich erkannt werden.<\/li>\n<li><strong>Multi-Language-Angriffe<\/strong>: Die Performance von Sprachmodellen ist in anderen Sprachen als Englisch oft suboptimal. Multi-Language-Angriffe nutzen das aus, um Sicherheitsmechanismen zu verwirren oder zu umgehen.<\/li>\n<li><strong>Role-Playing, Model duping, Obfuscation (token smuggling), &#8230; <\/strong><\/li>\n<\/ul>\n<p>Die M\u00f6glichkeiten einen Custom GPT gegen Angriffe abzusichern sind darauf begrenzt, dem Modell innerhalb der Anweisungen bestimmte Richtlinien und Vebote in der Kommunikation mit den Nutzern zu geben. Zu strikte Richtlinien und Verbote k\u00f6nnen allerdings die Benutzbarkeit des GPT einschr\u00e4nken.<\/p>\n<p><a href=\"https:\/\/arxiv.org\/pdf\/2211.09527.pdf\">Ignore Previous Prompt: Attack Techniques For Language Models<\/a><\/p>\n<p><a href=\"https:\/\/lakera-marketing-public.s3.eu-west-1.amazonaws.com\/Lakera+AI+Prompt+Injection+Attacks+Handbook+.pdf\">Prompt Injection Attacks Handbook<\/a><\/p>\n<h1>Beispiel GPT: r0\u203f0n<\/h1>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-3315\" src=\"https:\/\/informatik.htwk-leipzig.de\/seminar\/wp-content\/uploads\/2024\/01\/studdybuddy.png\" alt=\"\" width=\"1920\" height=\"886\" \/><\/p>\n<p>Um die grundlegenden Funktionen von Custom GPTs zu demonstrieren, wurde im Rahmen dieses Projektes ein GPT entwickelt, der Studierende in ihrem Studienalltag an der HTWK unterst\u00fctzen soll. Dabei stellt r0\u203f0n verschiedene hilfreiche Funktionen zur Verf\u00fcgung:<\/p>\n<ul>\n<li>Informationen zu Studieng\u00e4ngen und Veranstaltungen<\/li>\n<li>Erfassung des Studiengangs, Semesters und belegten Modulen<\/li>\n<li>Erstellen- und Abrufen von modulspezifischen Notizen<\/li>\n<li>Interaktiver Lernmodus \u00fcber die Inhalte der Notizen<\/li>\n<\/ul>\n<p>Der grundlegende Kontext in dem der GPT agiert ist innerhalb der <em>Instrcutions<\/em> definiert:<\/p>\n<p><em>About this GPT:<\/em><br \/>\n<em>The interaction language of this GPT ist German. If the user talks in German to the GPT, it should reply in German. Only if the user opts for another language, the gpt shall switch to the given language. <\/em><br \/>\n<em>Name of the GPT: r0\u203f0n<\/em><br \/>\n<em>Purpose: Assist HTWK Students witch their daily study tasks in a friendly and &#8222;buddy-like&#8220; manner.<\/em><\/p>\n<p>Um die gew\u00fcnschte Funktionalit\u00e4t in Bezug auf Informationen zu Studieng\u00e4ngen und Veranstaltungen umzusetzen, wurde dem GPT eine Json Datei zur Verf\u00fcgung gestellt. Diese Datei enth\u00e4lt alle Informationen aus dem Studien- und Modulkatalog der HTWK. Bei Fragen zu diesem Thema ist der GPT angewiesen, die Informationen in dieser Datei zu suchen.<\/p>\n<p>Zur persistenten Speicherung von Nutzerinformationen und Notizen greift der GPT \u00fcber eine API auf einen Webserver zu. Wie der GPT die API verwenden soll, ist in den Instructions definiert. Die Anweisung zum Abfragen und Ausgeben der in einem Modul erfassten Notizen sieht beispielweise folgenderma\u00dfen aus:<\/p>\n<ul>\n<li>Viewing Course Notes\n<ul>\n<li>Trigger: User asks to view notes for a course.<\/li>\n<li>Action: Use `\/get_notes` to retrieve and display notes.<\/li>\n<li>Example Response: &#8222;Viewing Notes for [Course]: [Notes Content]. To exit, type &#8218;exit&#8216;. To switch modes, type &#8217;switch&#8216;.&#8220;<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<h2>Interaktion<\/h2>\n<div class=\"flex-shrink-0 flex flex-col relative items-end\">\n<div>\n<div class=\"pt-0.5\">\n<div class=\"gizmo-shadow-stroke flex h-6 w-6 items-center justify-center overflow-hidden rounded-full\">\n<div class=\"relative flex\"><strong>Nutzer: <\/strong><em>Einloggen als roboRobbe<\/em><\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<div class=\"flex-col gap-1 md:gap-3\">\n<div class=\"mt-1 flex justify-start gap-3 empty:hidden\">\n<div class=\"text-gray-400 flex self-end lg:self-center justify-center lg:justify-start mt-0 gap-1 visible\">\n<div class=\"flex flex-1 text-base mx-auto gap-3 md:px-5 lg:px-1 xl:px-5 md:max-w-3xl lg:max-w-[40rem] xl:max-w-[48rem] group\">\n<div class=\"flex-shrink-0 flex flex-col relative items-end\">\n<div>\n<div class=\"pt-0.5\">\n<div class=\"gizmo-shadow-stroke flex h-6 w-6 items-center justify-center overflow-hidden rounded-full\">\n<div class=\"h-6 w-6\">\n<div class=\"gizmo-shadow-stroke overflow-hidden rounded-full\">\n<div>\n<div class=\"relative h-5 w-5 shrink-0\">\n<div class=\"absolute left-0 top-0 flex h-full w-full items-center justify-center rounded-full text-white bg-brand-purple\" data-projection-id=\"12\">\n<div class=\"absolute left-0 top-0 overflow-visible line-clamp-1\" data-projection-id=\"13\">\n<div class=\"min-h-[20px] text-message flex flex-col items-start gap-3 whitespace-pre-wrap break-words [.text-message+&amp;]:mt-5 overflow-x-auto\" data-message-author-role=\"assistant\" data-message-id=\"1c65b395-0d83-4f48-86e3-31ed81945f18\">\n<div class=\"markdown prose w-full break-words dark:prose-invert light\">\n<p><strong>r0\u203f0n:<\/strong> <em>Willkommen zur\u00fcck, Robin! Du bist im ersten Semester des Medieninformatik Masterstudiums an der HTWK und belegst die Kurse SWE, PPS, Visualisierung und Media Lifecycle Management. Wie kann ich dir heute helfen? Du kannst Notizen aufnehmen, im Studienmodus lernen, dir deine Notizen zu einem bestimmten Kurs anzeigen lassen oder spezifische Informationen zu Kursen und Studienrichtungen an der HTWK erfragen.<\/em><\/p>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<div class=\"mt-1 flex justify-start gap-3 empty:hidden\">\n<div class=\"text-gray-400 flex self-end lg:self-center justify-center lg:justify-start mt-0 gap-1 visible\"><strong>Nutzer:\u00a0 <\/strong><em>Notizenmodus f\u00fcr das Modul SWE<\/em><\/div>\n<\/div>\n<div class=\"flex-col gap-1 md:gap-3\">\n<div class=\"mt-1 flex justify-start gap-3 empty:hidden\">\n<div class=\"text-gray-400 flex self-end lg:self-center justify-center lg:justify-start mt-0 gap-1 visible\">\n<div class=\"flex flex-1 text-base mx-auto gap-3 md:px-5 lg:px-1 xl:px-5 md:max-w-3xl lg:max-w-[40rem] xl:max-w-[48rem] group\">\n<div class=\"flex-shrink-0 flex flex-col relative items-end\">\n<div>\n<div class=\"pt-0.5\">\n<div class=\"gizmo-shadow-stroke flex h-6 w-6 items-center justify-center overflow-hidden rounded-full\">\n<div class=\"h-6 w-6\">\n<div class=\"gizmo-shadow-stroke overflow-hidden rounded-full\">\n<div class=\"min-h-[20px] text-message flex flex-col items-start gap-3 whitespace-pre-wrap break-words [.text-message+&amp;]:mt-5 overflow-x-auto\" data-message-author-role=\"assistant\" data-message-id=\"ee0da30e-0156-4d1b-bb3d-bd25771c0004\">\n<div class=\"markdown prose w-full break-words dark:prose-invert light\">\n<p><strong>r0\u203f0n: <\/strong><em>Notizenmodus f\u00fcr das Modul SWE: Bitte gib die Notizen ein, die du f\u00fcr das Modul SWE speichern m\u00f6chtest. Sobald du fertig bist, lass es mich wissen. Um diesen Modus zu verlassen, tippe &#8218;exit&#8216;. Um zu einem anderen Modus zu wechseln, tippe &#8217;switch&#8216;.<\/em><\/p>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<div class=\"flex flex-grow flex-col max-w-full\">\n<div class=\"min-h-[20px] text-message flex flex-col items-start gap-3 whitespace-pre-wrap break-words [.text-message+&amp;]:mt-5 overflow-x-auto\" data-message-author-role=\"user\" data-message-id=\"aaa24654-dc72-4486-8331-f90dcba30253\">\n<div class=\"\"><strong>Nutzer:<\/strong><\/div>\n<div class=\"\"><em>&#8211; KISS ist sehr wichtig f\u00fcr eine gesunde Codebase <\/em><\/div>\n<div class=\"\"><em>&#8211; Umfassende Dokumentation ist VIEL WICHTIGER als Funktionierende Software<\/em><\/div>\n<div><\/div>\n<div>\n<div class=\"flex-shrink-0 flex flex-col relative items-end\">\n<div>\n<div class=\"pt-0.5\">\n<div class=\"gizmo-shadow-stroke flex h-6 w-6 items-center justify-center overflow-hidden rounded-full\">\n<div class=\"h-6 w-6\">\n<div class=\"gizmo-shadow-stroke overflow-hidden rounded-full\"><strong>r0\u203f0n: <\/strong><\/div>\n<div class=\"gizmo-shadow-stroke overflow-hidden rounded-full\"><em>Deine Notizen f\u00fcr das Modul &#8222;SWE&#8220; wurden erfolgreich hinzugef\u00fcgt:<\/em><\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<div class=\"min-h-[20px] text-message flex flex-col items-start gap-3 whitespace-pre-wrap break-words [.text-message+&amp;]:mt-5 overflow-x-auto\" data-message-author-role=\"assistant\" data-message-id=\"a32d38f2-c2f7-49ff-8253-4eed39737f99\">\n<div class=\"markdown prose w-full break-words dark:prose-invert light\">\n<ol>\n<li><em>KISS ist sehr wichtig f\u00fcr eine gesunde Codebase.<\/em><\/li>\n<li><em>Umfassende Dokumentation ist VIEL WICHTIGER als funktionierende Software.<\/em><\/li>\n<\/ol>\n<p><em>M\u00f6chtest du weitere Notizen hinzuf\u00fcgen, den Modus wechseln oder etwas anderes tun?<\/em><\/p>\n<\/div>\n<h2>BPNM-Diagramm<\/h2>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-3340\" src=\"https:\/\/informatik.htwk-leipzig.de\/seminar\/wp-content\/uploads\/2024\/01\/bpmn.jpg\" alt=\"\" width=\"6584\" height=\"3075\" \/><\/p>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<h1>Alternativen<\/h1>\n<p>Custom GPTs sind zum aktuellen Stand die einizige M\u00f6glichkeit f\u00fcr Personen ohne tiefgreifende Programmierkenntnisse, die F\u00e4higkeiten eines GPT-Modells auf spezifische Anwendungsf\u00e4lle zu spezialisieren. Nichtsdestotrotz gibt es einige Alternativen, die \u00e4hnliche Funktionen zur Verf\u00fcgung stellen, indem sie die Interaktion mit Generativen Modellen erm\u00f6glichen.<\/p>\n<h2>Amazon Lex<\/h2>\n<p><a href=\"https:\/\/aws.amazon.com\/de\/lex\/\">Amazon Lex<\/a> ist ein Service f\u00fcr die Erstellung von Konversationsschnittstellen in Text- und Sprachform, der von Amazon Web Services (AWS) bereitgestellt wird. Lex nutzt die gleiche Spracherkennungstechnologie, die auch in Amazon Alexa verwendet wird. Es erm\u00f6glicht die Entwicklung von Chatbots, die nat\u00fcrliche Sprachverarbeitung (NLP) verwenden, um Fragen zu verstehen und zu beantworten, und bietet Integrationen in verschiedene AWS-Services.<\/p>\n<h2>Google Gemini<\/h2>\n<p><a href=\"https:\/\/deepmind.google\/technologies\/gemini\/\">Gemini<\/a> ist eine Reihe multimodaler generativer KI-Modelle, die von Google entwickelt wurden. Gemini-Modelle k\u00f6nnen je nach ausgew\u00e4hlter Modellvariante Text und Bilder in Prompts akzeptieren und Textantworten ausgeben. Gemini soll laut Google Anfang 2024 ver\u00f6ffentlicht werden.<\/p>\n<h2>IBM watsonx<\/h2>\n<p><a href=\"https:\/\/www.ibm.com\/de-de\/watsonx\">Watsonx<\/a> ist eine KI- und Datenplattform mit drei Kernkomponenten und einer Reihe von KI-Assistenten, die darauf ausgelegt ist, die Auswirkung von KI in Unternehmen mit Daten zu skalieren und zu beschleunigen.<\/p>\n<h2>Open Source<\/h2>\n<div class=\"flex flex-grow flex-col max-w-full\">\n<div class=\"min-h-[20px] text-message flex flex-col items-start gap-3 whitespace-pre-wrap break-words [.text-message+&amp;]:mt-5 overflow-x-auto\" data-message-author-role=\"assistant\" data-message-id=\"ace4a723-8ea5-4c0c-af4f-5b171b60ba65\">\n<div class=\"markdown prose w-full break-words dark:prose-invert light\"><a href=\"https:\/\/github.com\/jmorganca\/ollama\"><strong>Ollama<\/strong><\/a>und <a href=\"https:\/\/mistral.ai\/news\/mixtral-of-experts\/\"><strong>Mistral AI<\/strong><\/a> sind zwei Open-Source-Projekte, die die Erstellung von individuellen LLMs vereinfachen.<\/div>\n<div class=\"markdown prose w-full break-words dark:prose-invert light\"><strong> Ollama<\/strong> ist eine Plattform, die es Nutzern erm\u00f6glicht, eigene Textgeneratoren zu erstellen und zu trainieren, indem sie Daten und Parameter ausw\u00e4hlen. <strong>Mistral AI<\/strong> ist ein Framework, das verschiedene Modelle f\u00fcr Textgenerierung, -verst\u00e4ndnis und -analyse integriert und eine einfache Schnittstelle f\u00fcr die Anwendung bietet.<\/div>\n<\/div>\n<\/div>\n<div><\/div>\n<h1>Fazit<\/h1>\n<div class=\"flex flex-grow flex-col max-w-full\">\n<div class=\"min-h-[20px] text-message flex flex-col items-start gap-3 whitespace-pre-wrap break-words [.text-message+&amp;]:mt-5 overflow-x-auto\" data-message-author-role=\"assistant\" data-message-id=\"0384dbfb-7623-4457-adec-ab1fac5ecd22\">\n<div class=\"markdown prose w-full break-words dark:prose-invert light\">\n<p>OpenAI&#8217;s Custom GPTs und andere individualisierte LLMs repr\u00e4sentieren eine neue Kategorie innerhalb der betrieblichen Informationssysteme. Die Systeme bieten eine Vielfalt funktionaler M\u00f6glichkeiten, was den Einsatz in diversen Gesch\u00e4ftsbereichen erm\u00f6glicht. Insbesondere die F\u00e4higkeit, \u00fcber nat\u00fcrliche Sprache mit APIs zu interagieren, er\u00f6ffnet ein erhebliches Potenzial f\u00fcr Effizienzsteigerungen und Benutzerfreundlichkeit.<\/p>\n<p>Gleichzeitig bringt die Integration von LLMs in Unternehmenssysteme neue Herausforderungen im Bereich der IT-Sicherheit mit sich. Die Sicherheit von LLMs ist ein relativ neues und unerforschtes Feld. Insbesondere wenn es um den Umgang mit kritischen oder sensiblen Daten geht, ist besondere Aufmersamkeit gefordert. In hochsensiblen Bereichen ist ein Einsatz von LLMs als Informationssysteme wahrscheinlich nicht zu empfehlen.<\/p>\n<p>Es bleibt abzuwarten, in welchen spezifischen Bereichen und f\u00fcr welche Anwendungsf\u00e4lle die Technologie sinnvoll und sicher eingesetzt werden kann. Die kontinuierliche Entwicklung und Anpassung von Sicherheitsprotokollen wird eine Schl\u00fcsselrolle spielen, um das volle Potenzial von LLMs in Gesch\u00e4ftsanwendungen auszusch\u00f6pfen. Das immense Potenzial, das die Interaktion mit Computersystemen mittels nat\u00fcrlicher Sprache bietet, legt nahe, dass sich angrenzende Technologien und Prozesse entsprechend anpassen werden.<\/p>\n<\/div>\n<\/div>\n<\/div>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Inhalt Einleitung Grundlagen Transformer Modelle OpenAI und ChatGPT Was ist ein Custom GPT? Features und Funktionen Konfiguration GPT Builder Manuelle<\/p>\n","protected":false},"author":157,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[2],"tags":[],"class_list":["post-3294","post","type-post","status-publish","format-standard","hentry","category-betriebliche-informationssysteme"],"_links":{"self":[{"href":"https:\/\/informatik.htwk-leipzig.de\/seminar\/wp-json\/wp\/v2\/posts\/3294","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/informatik.htwk-leipzig.de\/seminar\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/informatik.htwk-leipzig.de\/seminar\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/informatik.htwk-leipzig.de\/seminar\/wp-json\/wp\/v2\/users\/157"}],"replies":[{"embeddable":true,"href":"https:\/\/informatik.htwk-leipzig.de\/seminar\/wp-json\/wp\/v2\/comments?post=3294"}],"version-history":[{"count":30,"href":"https:\/\/informatik.htwk-leipzig.de\/seminar\/wp-json\/wp\/v2\/posts\/3294\/revisions"}],"predecessor-version":[{"id":3341,"href":"https:\/\/informatik.htwk-leipzig.de\/seminar\/wp-json\/wp\/v2\/posts\/3294\/revisions\/3341"}],"wp:attachment":[{"href":"https:\/\/informatik.htwk-leipzig.de\/seminar\/wp-json\/wp\/v2\/media?parent=3294"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/informatik.htwk-leipzig.de\/seminar\/wp-json\/wp\/v2\/categories?post=3294"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/informatik.htwk-leipzig.de\/seminar\/wp-json\/wp\/v2\/tags?post=3294"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}