ki projekt geht schief
ich habe von mckinsey oder irgendeiner anderen wirtschaftsberatungsbude gehört, dass so ultra viele ki-projekte schief gehen. und wenn ihr mich fragt, ist der grund dafür, dass vorher das requirements engineering nicht ordentlich gemacht wird. und dann stellt man später fest, wir haben da ganz schön viel kohle in die ki gebuttert, aber eigentlich macht es uns am ende dann doch mehr arbeit. jetzt ist die lösung dafür, zum einen muss ich natürlich über die grenzen von diesen large language models im klaren sein und über den konkreten anwendungsfall. aber zum anderen muss man auch sehen, dass man konsistente systeme hat. und das ist ein grosses problem, was ich sehe. zumindest habe ich das gehört und ich glaube das auch, dass halt die ki-modelle auch ändern. und dann hast du halt deinen anwendungsfall für ein ki-modell gebaut. dann rollen die zum beispiel bei openai ein neues modell aus und auf einmal funktioniert ein anwendungsfall nicht mehr und dann wird es schwierig und dann ist ja klar dass man dafür so so viel kohle rein buttert, weil du müsstest ja auch jedes mal wenn sich da was ändert dann anwendungsfall wieder auf das neue modell anpassen und die tatsache, dass das gemacht werden muss, verbrät unheimlich viel geld. und die lösung dafür ist eigentlich, dass man die ki-modelle bei sich selber betreibt. mit lokalen maschinen. und da sind wir wieder bei on-premise und nicht in der cloud. das stimmt leider. da haben wir wieder dieses cloud-problem irgendwie. da haben wir wieder keine cloud sozusagen. aber deswegen brauchen wir so hybrid-cloud-on-premise. also wir brauchen unsere eigenen ki-modelle in der cloud, damit die da funktionieren. oder besser noch, die maschine steht einfach bei dir in der firma. anders lässt sich das nicht bewerkstelligen aus meiner sicht und dann sagen immer alle ja das ist doch so langsam oder so wenn es nicht in der cloud ist ja vielleicht ist es langsam aber sag welcher anwendungsfall ist wirklich so ich brauche die antwort sofort es gibt ein use case den ich erfunden habe hier, dass du die desto zum beispiel als monteur ach nee das verrate ich euch nicht. verrate ich euch ein anderes mal wenn ich das produkt fertig gebaut habe.
man kann da schon eine ganze menge gute produkte bauen. und ich bin mir sicher, dass die auch im grossen und ganzen was bringen werden. aber wie gesagt, wir sollten vorher drüber gesprochen haben, was das produkt genau macht. und warum es mir hilft. ich meine ich benutze die ki auch viel so für recherche von irgendwelchen zitaten oder so und du kommst halt fast nicht mehr weg davon, weil ja es ist einfach bequem und es geht einfach schneller und du kannst relativ schnell irgendwelche wissenslücken damit auffüllen die du vielleicht für deinen job brauchst, obwohl es dir dann nur die best practices verrät also das was es kennt und nicht das was vielleicht das innovativste wäre. vielleicht sind die large language models schon in der lage das innovativste herauszufinden, aber vielleicht auch nicht. und so entsteht nämlich innovation nicht zwingend. also es entsteht nicht zwingend innovationen dadurch, dass das large language modell das jetzt herausfindet. weil, wie wir ja wissen, arbeitet es vor allem mit daten, die es aus der vergangenheit gelernt hat. und dadurch kommt zustande, dass die natürlich nur das wissen, was bereits da ist. so kommt nichts neues auf den markt.
also fazit von heute ist: seid euch bewusst was das ding da macht und das ist es eventuell nur mit diesem language modell macht und wenn das language modell sich ändert macht es das vielleicht auch nicht mehr. deswegen unbedingt vorher mit jemandem sprechen der sich da auskennt wie gesagt wenn du ein mensch bist und das hier liest können wir gerne telefonieren