Ein besonderes Beispiel für die Verwendung von GPT-3 ist die Arbeit von Künstlerin Michelle Huang, die einen Chatbot mit Hilfe von Tagebucheinträgen aus ihrer Kindheit trainiert hat. Huang hatte über einen Zeitraum von mehr als zehn Jahren fast täglich ihre Träume, Ängste und Geheimnisse aufgeschrieben. Diese Einträge reichten von Beschwerden über Hausaufgaben bis hin zu ihrem Schwarm und ermöglichten es Huang, einen direkten Zugang zu ihrem früheren Ich zu bekommen.
Das Modell wurde durch das Training mit diesen Tagebucheinträgen feinjustiert und konnte auf Fragen von Huang überzeugend antworten. Sie konnte mit ihrem „inneren Kind“ sprechen und sich so besser verstehen und ihre Vergangenheit aufarbeiten. Auch wenn dieser spezielle Anwendungsfall vielleicht nicht für jedermann relevant ist, zeigt es doch die Möglichkeiten, die sich durch das Feintuning von KI-Modellen ergeben.
Auch in anderen Bereichen wird GPT-3 immer häufiger eingesetzt. So wird es beispielsweise für die Erstellung von Texten, die einen menschenähnlichen Schreibstil aufweisen, verwendet. Auch in der Wissenschaft wird es genutzt, um wissenschaftliche Arbeiten zu erstellen oder Abstracts zu schreiben.
Das Potenzial von GPT-3 und ähnlichen Sprachmodellen ist jedoch noch lange nicht ausgeschöpft. In Zukunft kann man sich vorstellen, dass solche Modelle noch weiter personalisiert werden können und sich somit noch besser an individuelle Bedürfnisse anpassen. Auch die Möglichkeiten für die Anwendung in unterschiedlichen Bereichen werden sich wahrscheinlich weiter erweitern.
Allerdings gibt es auch Bedenken bezüglich der Verwendung von GPT-3 und ähnlichen Modellen. Eine davon ist die Frage nach den Urheberrechten an den erstellten Texten. Da GPT-3 auf bereits bestehenden Texten trainiert wird, ist es schwer zu sagen, wer der tatsächliche Urheber eines erstellten Textes ist.