August 6, 2022

Der Meta-Chatbot hat seine künstliche Intelligenz über die Webversion der Öffentlichkeit zugänglich gemacht

Meta AI Research Labs hat einen neuen und fortschrittlichen Chatbot entwickelt, der es der Öffentlichkeit ermöglicht, mit dem System zu sprechen, um ihr Feedback zu den Fähigkeiten des Bots zu sammeln. Dieser Bot namens BlenderBot 3 ist über eine Webversion verfügbar. Derzeit können nur US-Bürger auf diesen Bot zugreifen.

Laut Meta kann diese künstliche Intelligenz an öffentlichen Gesprächen teilnehmen und Fragen beantworten, die normalerweise von Sprachassistenten gestellt werden. Sie können diesen Roboter zum Beispiel nach Kochanleitungen fragen oder spezielle Einrichtungen für Kinder in der Stadt finden. BlenderBot 3 ist ein Prototyp, der basierend auf früheren Meta-Projekten unter Verwendung der Large Language Models oder LLMS entwickelt wurde. Dies ist ein Softwaremodell zur Textgenerierung, OpenAI GP-3 ist ein klares Beispiel für darauf basierend entwickelte künstliche Intelligenz.

Wie alle LLM-basierten Projekte wird der neue Meta-KI-Bot zunächst mit einem großen Datensatz an Texten trainiert und daraus Muster der Sprachproduktion generiert. Solche Systeme haben sich als sehr flexibel erwiesen und können in einer Vielzahl von Anwendungen eingesetzt werden, von der Generierung von Code für Programmierer bis hin zur Unterstützung von Autoren beim Schreiben von Bestsellern. Die genannten Modelle haben jedoch wichtige Mängel, unter denen wir die Orientierungen in den Trainingsdaten erwähnen können.

Orientierungen in den Trainingsdaten plant Meta speziell mit BlenderBot zu testen. Eine der großartigen Eigenschaften dieses Chatbots ist, dass er an verschiedenen Themen im Internet teilnehmen kann. Noch wichtiger ist, dass Benutzer auf die bereitgestellten Antworten klicken können, um die Quelle dieser Daten anzuzeigen. Mit anderen Worten, dieser Roboter kann dem Benutzer seine Ressourcen ankündigen.

Mit der Veröffentlichung seines neuen Chatbots möchte Meta Informationen zu verschiedenen Problemen sammeln, mit denen große Sprachmodelle konfrontiert sind. Benutzer, die mit BlenderBot chatten, können verdächtige Antworten des Systems markieren. Meta sagt, es habe hart daran gearbeitet, die Verwendung von Obszönitäten und kulturell sensiblen Kommentaren in seinem Chatbot zu minimieren. Benutzer müssen sich dafür entscheiden, dass ihre Daten gesammelt werden, und in diesem Fall werden ihre Gespräche und ihr Feedback für eine spätere Metaanalyse und Verwendung in der allgemeinen KI-Forschung und -Entwicklung gespeichert.

Kurt Schuster Der Ingenieur ist ein Metaforscher, der beim Aufbau von BlenderBot 3 geholfen hat. Er sagte gegenüber Verge:

Wir verpflichten uns, alle in der Beta gesammelten Daten öffentlich zu veröffentlichen, damit wir unsere Konversations-KI verbessern können.

Verwandter Artikel:

Die Veröffentlichung eines KI-gestützten Chatbot-Prototyps für die Öffentlichkeit war in der Vergangenheit ein riskanter Schritt für Technologieunternehmen. Im Jahr 2016 veröffentlichte Microsoft einen Chatbot namens Tay auf Twitter, der durch die Interaktion mit Menschen trainiert wurde. Ziemlich vorhersehbar wiesen Twitter-Nutzer Tay an, eine Reihe rassistischer, antisemitischer und frauenfeindlicher Äußerungen zu erzählen. Der in Redmond ansässige Technologieriese nahm den Bot 24 Stunden später auch offline.

Laut Meta hat sich die Welt der künstlichen Intelligenz seit dem Tay-Debakel stark verändert, und BlenderBot verfügt über Sicherheitsfunktionen, die uns daran hindern könnten, die Fehler von Microsoft zu wiederholen. Maria Williamson, Director of Engineering bei Facebook AI Research (FAIR), sagt, dass Tay entwickelt wurde, um von Moment zu Moment aus Benutzerinteraktionen zu lernen; Aber BlenderBot ist ein statisches Modell.

Das bedeutet, dass sich der neue Meta-Bot merken kann, was Benutzer in der Konversation sagen, und selbst wenn der Benutzer die Anwendung verlässt und später zurückkommt, werden diese Informationen über Browser-Cookies gespeichert, aber er verwendet diese Daten nur, um das System zu verbessern. Williamson sagte zu Verge:

Dies ist nur meine persönliche Meinung; Aber Tays Leistung war eher enttäuschend; Weil es einen Winter von Chatbots geschaffen hat, in dem jede Institution Angst hat, öffentliche Proben zu Forschungszwecken bereitzustellen.

Laut Williamson sind die meisten Chatbots heute aufgabenorientiert. Kundenservice-Bots bieten Benutzern beispielsweise oft nur ein Raster vorprogrammierter Konversationen, die die Art der Anfragen einschränken. Das ideale Ziel ist es, ein System zu schaffen, das sich frei und natürlich unterhalten kann, und Meta sagt, dass der einzige Weg, dieses Ziel zu erreichen, darin besteht, Bots freie und natürliche Gespräche führen zu lassen.

Zusätzlich zur Veröffentlichung der Webversion von BlenderBot 3 hat Meta den Basiscode und den Trainingsdatensatz sowie eine Vielzahl kleinerer Modelle veröffentlicht, die in diesem Roboter verwendet werden, und Forscher können eine Anfrage an das Unternehmen senden, um Zugriff auf das größte Modell zu erhalten 175 Milliarden Parameter durch Ausfüllen eines speziellen Formulars. .

Subscribe to the newsletter

Fames amet, amet elit nulla tellus, arcu.

Leave A Comment