Diese geheime Regeländerung beim KI-Projekt hat die besten Teams düpiert – und jetzt droht das Projekt zu scheitern.

Erinnern Sie sich noch an den großen Hype um Koreas „eigene“ KI-Foundation-Modelle? Vor einem halben Jahr sah es nach einem nationalen Tech-Rennen aus. Jetzt? Kalte Stille. Denn was gerade im staatlich geförderten „Dopamo“-Projekt passiert, ist ein Musterbeispiel dafür, wie bürokratische Launen Milliardeninvestitionen vernichten können. Wenn Sie dachten, solche Projekte laufen nach Plan, sollten Sie das hier dringend lesen – denn die Spielregeln wurden mittendrin geändert.

Als der Plan kollabierte: Zwei statt einem vermeintlichen „Verlierer“

Der Start des Projekts war vielversprechend. Fünf Konsortien kämpften um die Gunst des Staates, um das beste koreanische KI-Modell zu entwickeln. Die erste Phase sollte harte Arbeit belohnen: Nur **ein Team** sollte ausscheiden. Was die Verantwortlichen dann ablieferten, war ein Schock für die gesamte Branche.

In der Praxis schieden plötzlich zwei Teams aus. Das kalte Wasser kam über alle. Gerade in Deutschland, wo wir wissen, wie schnell ambitionierte Förderprojekte im Sumpf der Bürokratie versinken können, wirkt dieser Vorgang wie eine düstere Vorwarnung.

Die mysteriöse „Originalität“ als neues Ausschlusskriterium

Was die ganze Sache besonders pikant macht: Die Kriterien schienen bis zum Schluss nicht in Stein gemeißelt zu sein. Sehen wir uns die beiden Ausgeschiedenen an:

Diese geheime Regeländerung beim KI-Projekt hat die besten Teams düpiert – und jetzt droht das Projekt zu scheitern. - image 1

  • NC AI: Fiel glatt durch, weil sie bei Benchmarks und Experten-Evaluierungen am schlechtesten abschnitten. Das war erwartet.
  • Naver Cloud: Überraschung! Dieses Team meisterte alle Tests, wurde aber nachträglich wegen angeblich nicht erfüllter „Originalitäts“-Kriterien aussortiert.

Brancheninsider fragen sich: Wenn man geplant hat, Naver Cloud zu kicken, hätte NC AI überleben müssen. Wenn NC AI gehen musste, hätte man Naver Cloud durchwinken sollen. **Plötzlich tauchte der vage Begriff der „Originalität“ als Hauptausschlussgrund auf.** Das ist, als würde man beim Marathon plötzlich das Gewicht der Schuhe zur Bewertungskategorie erklären.

Die Gefahr der „Repeater“-Runde: Warum die besten Konzerne fliehen

Angesichts dieses Chaos kündigte die Regierung eine „zweite Chance“ an – ein sogenanntes „Repeater“-Verfahren (패자부활전, Loser-Comeback). Klingt nett, ist aber in der Praxis ein Witz, wie ich finde.

Man muss sich das vorstellen: Die erfolgreichen drei Teams arbeiten seit Monaten mit öffentlichen Daten. Die Herausgeschmissenen müssen nun aus dem Stand einholen. Das ist kein fairer Wettbewerb, das ist ein Sprint, bei dem die anderen bereits fünf Runden Vorsprung haben.

Deshalb die Reaktion der Elite-Firmen:

  • Naver Cloud: Sagt Nein zur Wiederbewerbung.
  • NC AI: Auch kein Interesse.
  • Kakao: Hatte ohnehin schon Probleme, zeigt ebenfalls kein Interesse mehr.

Der Grund liegt auf der Hand: Niemand will den Stempel „Verlierer“ aufgedrückt bekommen, nachdem man bereits Unsummen investiert hat, nur um dann beim Comeback wieder sang- und klanglos zu scheitern. Der Reputationsschaden übersteigt jeden möglichen staatlichen GPU-Bonus.

Diese geheime Regeländerung beim KI-Projekt hat die besten Teams düpiert – und jetzt droht das Projekt zu scheitern. - image 2

Der praktische Nachteil: Zeit ist der härteste Faktor

In der KI-Welt ist der Trainingsprozess alles. Ein Modell braucht massive Mengen an Rechenzeit, um zu lernen. Die Regierung betont zwar, dass alle fairen Zugang zu den GPUs bekommen sollen, aber das ist nur die halbe Miete.

Ein hochrangiger Beamter meinte lakonisch, die Erfahrung der Teilnahme sei allein schon wertvoll. Wertvoll? Für wen? Für die Analysten im Ministerium, die das Ganze nach einem halben Jahr nicht mehr im Griff haben?

Wir sehen hier ein klassisches Beispiel für „Schreibtisch-Management“ – Entscheidungen, getroffen von Leuten, die die Notwendigkeit langer Lernzyklen im Machine Learning nicht durchdrungen haben. Die Folge: Das gesamte Projektziel, das ursprünglich bis 2027 lief, wurde heimlich auf Ende dieses Jahres vorgezogen. Ein Projekt, das bereits seine Regeln gebrochen hat, beschleunigt nun seinen eigenen Untergang.

Was denken Sie? Sollte die Regierung bei willkürlichen Regeländerungen im Laufe eines Technologieprojekts hart sanktioniert werden, oder ist das in der Anfangsphase von KI-Projekten unvermeidlich?

Philip Wienberg
Philip Wienberg

Co-founded Germany's first alcohol-free craft beer brand in 2018. Now a freelance Copywriter & Creative Director with 15+ years in top German ad agencies. Led teams of 30+ creatives, winning 100+ awards together - some even for real work, not just the award circuit.

Artikel: 1367

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert