Die Technologie zieht nicht ohne Grund viele in den Bann. Die Art der Antworten wirkt zum Großteil auch nicht maschinengemacht, unabhängig davon erst einmal, dass es Mängel wie Falschaussagen gibt. Es kommt einem vor, als ob ChatGPT individuelle, auf die Frage abgestimmte Aussagen gibt.
Beispiel: Wie würde sich heute jemand fühlen, der in der Steinzeit gelebt hat?
Antwort ChatGpt: „Jemand, der in der Steinzeit gelebt hat, würde sich wahrscheinlich überwältigt und verwirrt fühlen, wenn er in die moderne Welt gebracht würde. Die Technologie, Kultur und Gesellschaft wären völlig fremd für ihn.“
Dies ist durchaus eine passende Antwort.
ChatGPT antwortet auf die Frage, warum es so leistungsfähig ist, dass dies auf dem Transformer-Modell beruht.
„Das Transformer-Modell wurde im Jahr 2017 von Vaswani et al. von Google Brain veröffentlicht. Es wurde in einer wissenschaftlichen Arbeit mit dem Titel „Attention Is All You Need“ vorgestellt.“
Das Transformer-Modell trainiert in die Daten quasi den Kontext hinein. Es wird berücksichtigt, wie sich ein Wort zu anderen Worten verhält.
GPT-3 ist nicht das einzige Transformer-Modell. Es gibt viele andere, mit denen sich experimentieren lässt auf der Plattform Huggins Face: https://huggingface.co/docs/transformers/index.
Hier auch noch einmal einer von vielen Texten, die Einblick in Arbeitsweise des Modells gewähren: https://towardsdatascience.com/how-chatgpt-works-the-models-behind-the-bot-1ce5fca96286
Als Erster einen Kommentar schreiben