Generative AI, kurz GenAI, ist mittlerweile in aller Munde. Egal, ob man Software als weltverschliegendes Monster betrachtet, wie Tech-Milliardär Mark Andreessen es bereits 2011 verkündete, oder im Sinne einer Job-Apocalypse, wie sie einige der prominentesten AI-Vordenker prophezeien. Der NVIDIA-CEO Jen-Suan Huang, erklärte auf einem Gipfeltreffen Anfang 2024 in Dubai, dass selbst in dieser frühen Phase der AI-Revolution, Software-Entwicklung keine wichtige Fähigkeit mehr sei. Stattdessen solle man sich auf Bereiche wie Biologie, Bildung oder Landwirtschaft konzentrieren.
Doch je mehr Zeit vergeht, desto deutlicher wird, dass ein differenzierter Blick auf die mögliche Bubble nötig ist. Selbst Sam Altman, CEO von OpenAI, verkündete vor Kurzem, dass „jemand unglaubliche Geldbeträge verlieren wird“. Auch wenn man außer Acht lässt, dass eine solche Aussage den Kursen der – meist börsennotierten – Konkurrenten von OpenAI einen gehörigen Dämpfer verpasst und man hier ein geschäftliches Interesse unterstellen könnte, so gibt es weitere Anzeichen, dass die AI-Revolution vielleicht doch nicht so weltverschlingend ist, wie man auf den ersten Blick in die Hype-Bubble vermuten würde.
Investments ohne Nutzen, Datenschutzpannen und mangelnde Erfahrung
Laut des im August 2025 veröffentlichten Report des MIT Media Labs NANDA einen Report, würden 95 Prozent der Investitionen in generative AI absolut keinen messbaren Nutzen bringen – silch, zero, nichts. Stattdessen scheint es, als würden lediglich die Verkäufer der Schaufeln dieses AI-Goldrausches ordentlich Geld verdienen.
Viele Nutzer scheinen den AI-Modellen derzeit außerdem zu viel (an) zu vertrauen und – IMHO – ungesunde Beziehungen zu den ChatBots aufbauen, wie der kürzliche emotionale Aufschrei bei OpenAI’s Modellwechsel von der 4er-Serie zu GTP-5 zeigt. Das neue Modell war vielen Nutzern schlicht zu emotionslos. Dies ist durchaus bedenklich, wenn man die kürzlichen Datenschutzpannen bei OpenAI und xAI betrachtet. Teilte ein Nutzer eine Konversation per Link, so wurden diese direkt für Suchmaschinen auffindbar. Hinzu kommt, dass ChatGPT-Nutzer darauf hingewiesen werden, dass ihre vermeintlichen privaten Konversationen mit dem Chat-Bot als Beweisstück in einer Klage der New-York-Times genutzt werden könnten. Nach den tragischen Ereignissen der letzten Monate, wie beispielsweise dem Selbstmord eines Jugendlichen in den USA, beginnt OpenAI nun sogar damit die Unterhaltungen mit dem Chat-Bot auf potenzielle – sagen wir – Probleme hin zu untersuchen. Natürlich gilt dies nicht nur für persönliche Unterhaltungen, sondern auch Firmengeheimnisse, oder ganz einfach API-Keys im Software-Code.
Vibe-Coding als Tod des Junior-Entwicklers?
Wer sich mit dem Thema des Vibe-Codings beschäftigt, könnte den Eindruck gewinnen, dass all dies am Ende doch in den Hintergrund rückt. Zu viele Vorteile bringt die neue Technologie mit sich. Ähnlich wie NoCode/LowCode ermöglicht es dieser Ansatz doch Jedem ein Software-Entwickler zu sein. Natürlich ist es begrüßenswert, wenn der Einstieg in die Software-Entwicklung jedem, der sich dafür interessiert, zugänglich ist und Hürden nach und nach abgebaut werden. Dass es bald keine Software-Entwickler mehr braucht, ist trotz alles Hypes um Vibe-Coding dennoch schwer vorstellbar. Es ist viel eher eine langfristige Gefahr. Wenn Konzernchefs wie Satya Nadella bekannt geben, dass rund 20 bis 30 Prozent der Software in den konzerneigenen Repositories von KI verfasst wurde, so kann man die Ressourcen eines Branchengiganten nicht mit einem gevibe-codeten Projekt vergleichen.
Der Software-Entwickler David DeGraw weist beispielsweise in einem Blogpost darauf hin, dass Firmen sich – bis zu Burn-Out selbiger – auf ihre Senior-Entwickler verlassen, um ge-vibe-codete Commits unerfahrener Kollegen auf ihre Richtigkeit hin zu überprüfen. Auch ich habe in meiner Laufbahn ähnliche Erfahrungen gemacht, wie das Team von Answer.AI. KI-generierte-Antworten führen den Entwickler oftmals in ein „Rabbit-Hole“, dass aus erdachten Funktionen und zu komplexen Ansätzen besteht. Dies führt schon bei der Entwicklung zu viel verschwendeter Zeit – hätte ich doch einmal die Dokumentation gelesen.
Also doch nicht alles Gold was glänzt?
Sollte man sich als angehender freiberuflicher Software-Entwickler dem Trend also komplett verschließen und lieber Bücher wälzen? Natürlich nicht, es stellt sich aber die Frage, wie man – gerade im Rahmen von Kundenprojekten – verantwortungsvoll mit dem Einsatz und den damit verbundenen Risiken von AI in der Softwareentwicklung umgehen kann. Wie lassen sich also datenschutzrechtliche Risiken oder Kostenexplosionen vermeiden und wie geht man respektvoll mit der Zeit seiner Kollegen um? Damit befasse ich mich in den nächsten Teilen dieser Serie.