{"id":22,"date":"2026-01-04T20:00:40","date_gmt":"2026-01-04T20:00:40","guid":{"rendered":"https:\/\/theo-dege.net\/kiblog\/?p=22"},"modified":"2026-01-02T14:26:12","modified_gmt":"2026-01-02T14:26:12","slug":"ki-projekt-geht-schief","status":"publish","type":"post","link":"https:\/\/theo-dege.net\/kiblog\/2026\/01\/ki-projekt-geht-schief\/","title":{"rendered":"ki projekt geht schief"},"content":{"rendered":"<p>ich habe von mckinsey oder irgendeiner anderen wirtschaftsberatungsbude geh\u00f6rt, dass so ultra viele ki-projekte schief gehen. und wenn ihr mich fragt, ist der grund daf\u00fcr, dass vorher das requirements engineering nicht ordentlich gemacht wird. und dann stellt man sp\u00e4ter fest, wir haben da ganz sch\u00f6n viel kohle in die ki gebuttert, aber eigentlich macht es uns am ende dann doch mehr arbeit. jetzt ist die l\u00f6sung daf\u00fcr, zum einen muss ich nat\u00fcrlich \u00fcber die grenzen von diesen large language models im klaren sein und \u00fcber den konkreten anwendungsfall. aber zum anderen muss man auch sehen, dass man konsistente systeme hat. und das ist ein grosses problem, was ich sehe. zumindest habe ich das geh\u00f6rt und ich glaube das auch, dass halt die ki-modelle auch \u00e4ndern. und dann hast du halt deinen anwendungsfall f\u00fcr ein ki-modell gebaut. dann rollen die zum beispiel bei openai ein neues modell aus und auf einmal funktioniert ein anwendungsfall nicht mehr und dann wird es schwierig und dann ist ja klar dass man daf\u00fcr so so viel kohle rein buttert, weil du m\u00fcsstest ja auch jedes mal wenn sich da was \u00e4ndert dann anwendungsfall wieder auf das neue modell anpassen und die tatsache, dass das gemacht werden muss, verbr\u00e4t unheimlich viel geld. und die l\u00f6sung daf\u00fcr ist eigentlich, dass man die ki-modelle bei sich selber betreibt. mit lokalen maschinen. und da sind wir wieder bei on-premise und nicht in der cloud. das stimmt leider. da haben wir wieder dieses cloud-problem irgendwie. da haben wir wieder keine cloud sozusagen. aber deswegen brauchen wir so hybrid-cloud-on-premise. also wir brauchen unsere eigenen ki-modelle in der cloud, damit die da funktionieren. oder besser noch, die maschine steht einfach bei dir in der firma. anders l\u00e4sst sich das nicht bewerkstelligen aus meiner sicht und dann sagen immer alle ja das ist doch so langsam oder so wenn es nicht in der cloud ist ja vielleicht ist es langsam aber sag welcher anwendungsfall ist wirklich so ich brauche die antwort sofort es gibt ein use case den ich erfunden habe hier, dass du die desto zum beispiel als monteur ach nee das verrate ich euch nicht. verrate ich euch ein anderes mal wenn ich das produkt fertig gebaut habe.<\/p>\n<p>man kann da schon eine ganze menge gute produkte bauen. und ich bin mir sicher, dass die auch im grossen und ganzen was bringen werden. aber wie gesagt, wir sollten vorher dr\u00fcber gesprochen haben, was das produkt genau macht. und warum es mir hilft. ich meine ich benutze die ki auch viel so f\u00fcr recherche von irgendwelchen zitaten oder so und du kommst halt fast nicht mehr weg davon, weil ja es ist einfach bequem und es geht einfach schneller und du kannst relativ schnell irgendwelche wissensl\u00fccken damit auff\u00fcllen die du vielleicht f\u00fcr deinen job brauchst, obwohl es dir dann nur die best practices verr\u00e4t also das was es kennt und nicht das was vielleicht das innovativste w\u00e4re. vielleicht sind die large language models schon in der lage das innovativste herauszufinden, aber vielleicht auch nicht. und so entsteht n\u00e4mlich innovation nicht zwingend. also es entsteht nicht zwingend innovationen dadurch, dass das large language modell das jetzt herausfindet. weil, wie wir ja wissen, arbeitet es vor allem mit daten, die es aus der vergangenheit gelernt hat. und dadurch kommt zustande, dass die nat\u00fcrlich nur das wissen, was bereits da ist. so kommt nichts neues auf den markt.<\/p>\n<p>also fazit von heute ist: seid euch bewusst was das ding da macht und das ist es eventuell nur mit diesem language modell macht und wenn das language modell sich \u00e4ndert macht es das vielleicht auch nicht mehr. deswegen unbedingt vorher mit jemandem sprechen der sich da auskennt wie gesagt wenn du ein mensch bist und das hier liest k\u00f6nnen wir gerne telefonieren<\/p>\n","protected":false},"excerpt":{"rendered":"<p>ich habe von mckinsey oder irgendeiner anderen wirtschaftsberatungsbude geh\u00f6rt, dass so ultra viele ki-projekte schief gehen. und wenn ihr mich fragt, ist der grund daf\u00fcr, dass vorher das requirements engineering nicht ordentlich gemacht wird. und dann stellt man sp\u00e4ter fest, wir haben da ganz sch\u00f6n viel kohle in die ki gebuttert, aber eigentlich macht es [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":[],"categories":[1],"tags":[],"_links":{"self":[{"href":"https:\/\/theo-dege.net\/kiblog\/wp-json\/wp\/v2\/posts\/22"}],"collection":[{"href":"https:\/\/theo-dege.net\/kiblog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/theo-dege.net\/kiblog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/theo-dege.net\/kiblog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/theo-dege.net\/kiblog\/wp-json\/wp\/v2\/comments?post=22"}],"version-history":[{"count":1,"href":"https:\/\/theo-dege.net\/kiblog\/wp-json\/wp\/v2\/posts\/22\/revisions"}],"predecessor-version":[{"id":23,"href":"https:\/\/theo-dege.net\/kiblog\/wp-json\/wp\/v2\/posts\/22\/revisions\/23"}],"wp:attachment":[{"href":"https:\/\/theo-dege.net\/kiblog\/wp-json\/wp\/v2\/media?parent=22"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/theo-dege.net\/kiblog\/wp-json\/wp\/v2\/categories?post=22"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/theo-dege.net\/kiblog\/wp-json\/wp\/v2\/tags?post=22"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}