Steigende Energiepreise, unsichere Lieferketten und geopolitische Konflikte. Wir alle beobachten spätestens seit Corona und der russischen Vollinvasion in der Ukraine, wie fragil die Weltwirtschaft geworden ist. Der aktuelle Iran-Krieg ist da nur ein weiterer Beweis, wie schnell solche Krisen dann auch bei uns spürbar sind. Ich sage nur: Spritpreis-Debatte. Gucken wir also mal in dieser Folge sehr konkret auf Computertechnologie, auf Speicherchips und künstliche Intelligenz. Ich bin Christian Bollert und ich grüße euch. Der Brandeins-Podcast: Wirtschaft anders denken. Jede Woche bei detektor.fm.
Unternehmen investieren seit Jahren hunderte Milliarden in KI. Doch viele Projekte schaffen es nie so richtig in den produktiven Einsatz. Gleichzeitig werden reine Sprachmodelle wie Gemini, ChatGPT oder Le Char vermutlich nicht hunderte Milliarden an Umsatz generieren. Große Technologieunternehmen entwickeln deshalb neue Infrastrukturen, Plattformen und Lösungen, mit denen KI tatsächlich im Alltag von Unternehmen funktioniert. Denn nur so können sie auch langfristig ein erfolgreiches Geschäftsmodell werden. Wir schauen uns das in dieser Ausgabe einmal am Beispiel des Technologiekonzerns Lenovo an.
Im vergangenen Jahr hat Lenovo rund 69 Milliarden Dollar Umsatz gemacht. Weltweit arbeiten etwa 77.000 Menschen für den chinesischen Konzern, und Lenovo gilt mittlerweile als größter PC-Hersteller der Welt. Und der Konzern stellt sein Geschäft schon seit einer Weile deutlich breiter auf, etwa in den Bereichen Server, Speicher, Mobilgeräte sowie Lösungen und Dienstleistungen rund um künstliche Intelligenz. Andreas Tomasch ist seit dem Sommer bei Lenovo Director und Chief Technology Officer für Deutschland und Österreich, und mit ihm spreche ich über Lieferketten und darüber, wie sich das Unternehmen gerade verändert und welche Rolle dabei künstliche Intelligenz spielt. Ich sage Hallo und herzlich willkommen im Podcast, Andreas.
Ich freue mich, dabei zu sein. Ich habe es ja gerade schon so ein bisschen beschrieben. Der globale Markt ist heute ziemlich geprägt von geopolitischen Spannungen, von erratischen Zöllen und auch von unsicheren Lieferketten. Erst vor gut einem Monat hat dein Konzernchef vor einem Lieferengpass bei Speicherchips gewarnt. Ist das momentan so deine und eure größte Herausforderung?
Also ich glaube, von einer singulär einzigen Herausforderung zu sprechen, wäre übertrieben. Aber zu sagen, das ist eine der wesentlichen Herausforderungen, trifft es schon. Denn Dinge ändern sich, du hattest das gerade gesagt, in einem globalen Maßstab. Aber was da jetzt gerade passiert, ist eher ein strukturelles Thema. Sprich, die Nachfrage nach diesen Speicherchips, nach dieser Technologie, von KI getrieben, steigt massiv. Auf der anderen Seite lässt sich dieser Bedarf nicht ganz so schnell wiederum befriedigen, indem man einfach mehr herstellt, und dann gibt es einen Lieferengpass. Aber dann ist es natürlich wichtig, und wir sind, du hast es gesagt, Marktführer im Bereich PC und haben auch ein sehr sicherlich bekanntes Servergeschäft und weitere Dinge. Und damit haben wir natürlich in unserer globalen Aufstellung Lieferbeziehungen, die wir über Jahre, Jahrzehnte pflegen und die uns natürlich in der Situation auch belastbare Schadenschaften geben, um damit umzugehen.
Das heißt, flapsig gesagt, ihr habt ein bisschen bessere Bedingungen, weil ihr langjährige Partnerschaften habt, die dann euch zuerst beliefern. Genau, wo wir einfach vertrauensvolle, so würde ich das nennen, Partnerschaften haben, um mit diesen schwierigen Situationen umzugehen. Das ist ein bisschen eine gewisse Analogie auch zu Corona-Zeiten, wo wir einfach in der Krise auf dem Thema Partnerschaft, das gilt ja nicht nur für unsere Lieferanten oder diejenigen, mit denen wir da zusammenarbeiten, sondern wir machen ja auch einen ganz großen Teil unseres Geschäfts, über 90 Prozent, über Reseller, also über Channel Partner. Und da braucht es auch das Vertrauen, mit uns zusammenzuarbeiten, dass wir das gemeinsam meistern. Das hat in der Corona-Krise uns ausgezeichnet und geholfen, einfach den Abstand zu den Wettbewerbern zu vergrößern. Und ich bin überzeugt, dass wir auch aus der Krise wieder gestärkt hervorgehen werden. Aber gleichzeitig scheint es schon auch so zu sein, dass das auch für euch eine echte Herausforderung gerade ist.
Ja, ist es. Ich glaube, das wegzudiskutieren oder wegzureden, das wäre eine Realitätsverleugnung. Aber auf der anderen Seite zeigt sich, dass man mit einer Firmenkultur, die Geschwindigkeit und Innovation zusammenbringt, auf solche Herausforderungen die einfach global passieren, sowohl global als auch lokal, passend reagieren kann. Denn was häufig dahinter steckt, ist wirklich einfach Geschwindigkeit in der Umsetzung. Und du hattest, glaube ich, ganz am Anfang auch noch mal gefragt, was denn zum Thema KI und Umsetzung wichtig und notwendig ist. Und da gehört auch dieses Thema Innovation und Geschwindigkeit ganz oben auf die Agenda. Da kommen wir garantiert in dieser Folge noch ein bisschen genauer drauf.
Ihr versprecht ja auch als Lenovo Unternehmen, dass ihr mit KI Risiken früher erkennen und beispielsweise Produktionsprozesse auch flexibler steuern könnt. Wie kann das denn konkret funktionieren?
Genau, also ohne jetzt zu weit in die Technik abzutauchen, glaube ich, muss man sich da angucken, dass natürlich KI ganz massiv auf dem Thema Daten und Datenschutz aufsetzt. Das heißt, wie gut kenne ich meine Daten? Wie gut sind sie in der Qualität? Und auf wie viel Daten habe ich denn wirklich den Zugriff, um dann mit KI quasi entsprechende Erkenntnisse oder noch weitergehend Automatisierung obendrauf zu setzen? Und das ist eigentlich der Schlüssel. Das heißt, bei KI kann man natürlich über die LLMs etc. Du hast das auch gesagt, sprechen. Aber wichtig ist im gleichen Atemzug eigentlich darüber zu reden, wo sind die Daten? Wie komme ich daran? Kenne ich die Qualität meiner Daten, um die wirklich mit KI nutzbar zu machen? Und das gilt natürlich für Lieferketten genauso wie für Produktion und viele andere Dinge.
Wie konkret muss ich mir das denn vorstellen? Also nehmen wir mal an, ich habe jetzt Daten zu meiner Lieferkette und ich weiß zum Beispiel, weil sie nicht hatten, großen Auftrag und ich brauche Speicherchips. Bleiben wir mal beim Beispiel. Wie kann denn da KI dann helfen?
Genau, lass mich das vielleicht ein bisschen griffig machen. Ein Beispiel, wie wir es selber ja auch einsetzen. Deswegen sind wir auch hier ein bisschen aus der Praxis zu plaudern. Wenn du heute hergehst und einen Server oder eine komplexe Serverinfrastruktur, also sowas, was in dem Rechenzentrum läuft, bestellen möchtest, dann musst du das Ganze auch konfigurieren. Kann man sich ein bisschen vorstellen wie so, wenn ein Auto konfiguriert, nur mit viel, viel mehr Freiheitsgraden und Optionen. Und das natürlich in einer Zeit, wo bestimmte Speicherregel weniger verfügbar sind, sich Kosten und Preise ändern. Eine super schwierige Aufgabe. Und deswegen haben wir zum Beispiel unseren Konfigurator mit AI in die Lage versetzt, dass er einfach natürlichsprachig eine Kundenanforderung einfach als Text als Anforderungen aufnehmen kann und dementsprechend Konfigurationen ausspuckt, unter Berücksichtigung der entsprechenden Daten dahinter. Da sind wir genau beim Punkt. Da spare ich mir den aufwendigen Schritt, dass jemand im Backoffice sitzen muss und mit einem Konfigurator Tool, was komplex ist, was man erst lernen muss, umgehen muss. Und das kostet Zeit. Und im Zweifelsfall ist das, was da wieder rauskommt, natürlich in der heutigen Zeit, wo auch die Lieferfähigkeit sich sehr schnell ändert, vielleicht schon wieder veraltet. Und wenn ich dann einen Konfigurator habe, wo ich einfach natürlichsprachig die Anforderungen des Kunden reinpacke und dann im Ergebnis eine Konfiguration rauskommt, inklusive dem Check der Daten dahinter, dann werde ich viel schneller, aber dann werde ich auch zuverlässiger. Vielleicht ist das mal ein griffiges Beispiel, um das zu zeigen.
Das heißt, sehr konkret ich würde euren Konfigurator mit meinen Daten füttern, die ich für mein konkretes Produkt habe. Ich würde einfach sagen, das sind meine Anforderungen für meine Serverinfrastruktur, die ich aufbauen möchte. Und diese Daten, die Anforderungen, die würde ich in den Konfigurator reinpacken. Also das sind natürlich auch Daten, klar. Und daraus würde er die entsprechende Lösung, die Konfiguration zügig erstellen, ohne dass ich mit einem komplizierten Tool umgehen muss.
Jetzt gibt es ja nach so einer ersten, doch ziemlich enthusiastischen Begeisterungswelle in Sachen KI momentan durchaus auch viel Ernüchterung und viel, ja, ich sag mal Abwarten. Zumindest kann man das so beobachten. Viele Hoffnungen haben sich jedenfalls bisher so in der Form nicht erfüllt. Woran scheitert denn KI aus deiner Sicht in der Praxis am häufigsten?
Also ich würde da mehrere Punkte nennen, weil ich glaube, an einem Punkt festzumachen, wäre ungenügend. Lassen wir da kurz durchgehen. Einen Punkt ist, dass viele angefangen haben, gesagt haben, ich suche mir einen Use Case, und mein Team weiß, dass mittlerweile ein Triggerwort für mich ist. Ich suche mir einen Use Case und probiere es da aus und erwarte dann, dass ich aus diesem einen Use Case, aus diesem einen Proof of Concept, ein super wirtschaftlich tragfähiges Projekt mache, mit einem tollen ROI und so weiter. Die Realität ist aber, um diesen einen Anwendungsfall, Use Case, nutzbar zu machen, zu vertesten, muss ich eigentlich meine Daten auf ein gewisses Niveau bringen. Ich muss einen Qualitätscheck machen. Ich muss wissen, wie aktuell sind die etc. Das ist der eigentliche Aufwand dafür. Das ist ein relativ hoher Aufwand, weil im Regelfall diese Daten nicht nur für diesen einen Anwendungsfall irgendwo genutzt werden, sondern in meiner Firma generell. Also ich habe einen relativ hohen Aufwand für einen sehr speziellen Einsatzzweck für dieses Nutzungsszenario. Deswegen, wenn da irgendwas nicht ganz funktioniert, wie ich es mir vorgestellt habe, habe ich viel Aufwand getrieben mit relativ wenig Ergebnis für diesen einen KI-Piloten. Deswegen ist der Ansatz aus meiner Sicht, einen bestimmten Datenbereich von dem ich glaube, dass der für KI gut nutzbar wäre, weil ich da Automatisierung und Effizienz draufsetzen kann, und den nutzbar zu machen und dann möglichst viele verschiedene Use Cases oder Nutzungsszenarien zum Einsatz zu bringen, die wirklich zügig auszuprobieren. Wenn ich halt 15 Szenarien da habe und nur fünf davon funktionieren wirklich gut, dann habe ich eine viel höhere Erfolgswahrscheinlichkeit.
Das ist der eine Punkt: Einfach den Aufwand die Daten zu heben und dann viele Use Cases draufzupacken, auch wenn man hinterher vielleicht nur ein Drittel davon wirklich in der Praxis nutzen kann. Also sich erst mal sehr genau die Daten angucken, halten wir mal so fest. Genau, also mit den Daten angucken und den Aufwand auf der Datenseite nicht überschätzen. Und deswegen lieber gucken, ob ich viele Anwendungsfälle für diesen Bereich der Daten, weil dann die Erfolgswahrscheinlichkeit höher ist. Das ist der eine Teil. Der zweite Teil hängt aber ein bisschen daran zusammen, wie gehe ich an dieses Thema ran? Wir erleben ja gerade, wie schnell sich das alles verändert. Und das ist der Grund, warum ich heute hier bin. Weil ich das Gefühl habe, wo sich LLMs verändern, wo die Fähigkeit dieser LLMs sich quasi gefühlt täglich oder zumindest wöchentlich verändert. Deswegen heute herzugehen, zu sagen, ich weiß schon genau wie mein Return on Invest für einen einzelnen Use Case aussieht und aber mein Pilot dauert vielleicht mehrere Wochen, das ist in sich schon der Widerspruch drin, zu sagen, der wird sich in der Zwischenzeit etwas verändern. Deswegen ist mein Ratschlag eher zu sagen, auch für die Firmen: Ich baue eigene Kompetenz und Know-how auf, um in diesem sich schnell ändernden Markt selber in der Lage zu sein, meine Projekte an die technischen Möglichkeiten anzupassen. Und nicht wie bei einer Einführung von dem klassischen Warenwirtschaftssystem zu sagen, hier ist mein Projekt, da ist mein Invest, da ist mein Return und ich weiß das heute schon genau, wo ich in zwölf oder 18 Monaten sein werde. So funktioniert es im KI-Umfeld aktuell einfach nicht.
Andreas Thomasch von Lenovo Deutschland und Österreich beim Podcast Radio detektor.fm. Wir sprechen in dieser Episode noch ein bisschen weiter darüber, wie Unternehmen künstliche Intelligenz konkret produktiv einsetzen können. Andreas, eines eurer Leitbilder, und da weiten wir jetzt ein bisschen so auch die Perspektive, ist die Hybrid-KI-Strategie. Was bedeutet denn das konkret?
Genau, das klingt jetzt erst mal so super nach Strategie-Buzzwords, aber ich würde das gerne sehr konkret machen. Dahinter steckt, vereinfacht gesagt, dass die KI dort läuft, wo sie den größten Nutzen bringt. Und viele machen heute den Analogieschluss und sagen, die KI läuft in der Cloud. Und das ist einfach falsch oder zumindest fehlen ganz wesentliche Aspekte davon. Denn die KI, wenn die auf dem Gerät läuft, wo die Daten sind, und das kann mein Handy sein, das kann mein Thinkpad sein, das kann mein Server in meinem eigenen Rechenzentrum oder die Cloud sein, dann hängt es davon ab, wo sind die Daten. Und wenn die KI dort läuft, bringt sie den größten Nutzen. Und das ist mit wenigen Sätzen zusammengefasst das Thema hybride KI. Ich kann es aber noch ein bisschen auseinandernehmen, damit man stärker sieht, wo ist der Vorteil. Wenn meine sensiblen Daten mein Gerät nicht verlassen oder mein eigenes Rechenzentrum nicht verlassen, dann habe ich natürlich den Vorteil, dann kann ich mit viel mehr Daten arbeiten, auch wenn sie sensibel sind, um die für die KI nutzbar zu machen. Und gleichzeitig kann ich dann dort selektiv noch in die Cloud gehen, wo ich mehr Rechenleistung oder mehr Skalierung brauche, aber vielleicht gar nicht mit meinen spezifischen Daten dahingehen muss, um das mit einem LLM aus der Cloud nochmal anzureichern. Genau, diese Möglichkeit, KI an verschiedenen Stellen laufen zu lassen, aber dann auch miteinander laufen zu lassen, also on-device, in meinem Rechenzentrum und mit Unterstützung der Cloud, genau das meinen wir, wenn wir über hybride KI sprechen. Diese Welten miteinander zu verbinden, damit zum Schluss der Kunde den Nutzen aus seinen Daten dort sieht, wo seine Daten sind.
Und das ist ja auch durchaus, ich meine, das erleben wir ja auch in den letzten Wochen und Monaten sehr, sehr intensiv, dass sich Leute genau darüber Gedanken machen, wo landen denn meine Daten? Ist es sinnvoll, möglichst viel bei mir lokal zu speichern, um beispielsweise nicht in die USA oder auch nach China irgendwie Daten zu schicken? Wie macht ihr das denn konkret? Also wie begleitet ihr da die Kundinnen und Kunden?
Genau, das hat zwei Aspekte, und ich würde vielleicht auch mal etwas aus dem Consumer-Bereich erläutern, dann machen wir einen Sprung nochmal zurück in die Unternehmenswelt. Was wir jetzt Anfang Januar auch angekündigt haben und jetzt im Frühjahr auch ausliefern werden, nennen wir einen persönlichen Superagenten, der nennt sich Kira, und der läuft cross-device. Das heißt, der läuft aus meinem Thinkpad, der läuft auf meinem Motorola-Handy und er kennt mich als Nutzer, egal ob ich das jetzt auf meinem Handy benutze oder auf meinem Thinkpad benutze, mit den Daten, die ich diesem KI-Superagenten zugänglich gemacht habe. Das heißt, gehe ich her und buche auf meinem Thinkpad eine Reise, dann hat automatisch mein Handy auch den Text, dass ich dort eine Reise gebucht habe. Und der wesentliche Unterschied zu einem cloudbasierten Ansatz ist, dass dafür eben keine Daten in Richtung Cloud fließen, sondern die Daten genau nur zwischen diesen zwei Geräten ausgetauscht werden. Und das sind halt meine Daten, und das bleiben auch meine Daten, und die habe ich selber unter Kontrolle. Das wäre jetzt mal ein einfaches Beispiel aus der Consumer-Welt, weil heute geht auch schon viel mehr an KI-Fähigkeit auf den Geräten, als wir uns selber vorstellen können.
Wenn ich das jetzt auf die Unternehmenswelt übertrage, ist es genau die gleiche Entscheidung zu sagen, was läuft in meinem Rechenzentrum oder auf dem Thinkpad meines Mitarbeiters und wird dort schon lokal bearbeitet, bevor ich es dann, wie gesagt, selektiv und mit meiner Entscheidung bestimmte Daten in die Cloud gebe, um mir einfach eine Info dazuzuholen. Wenn ich halt, was weiß ich, eine bestimmte Anreicherung an Daten mit, was befindet sich denn rund um diese Adresse, haben möchte, dann ist dafür Daten aus der Cloud anzufordern. Vermutlich gebe ich da keine sensiblen Daten preis, wenn ich jetzt nicht irgendwelche Secret Locations habe.
Aber wenn ich das in der Unternehmenswelt jetzt mal auf sensible Daten anreiche und sage, ich stelle mir vor, wie ein Arzt ein Patientengespräch transkriptieren möchte, damit einfach das, was ich sage, aufgezeichnet wird und nicht nur der Arzt, sondern auch der Assistent und alle weiteren sofort die Zusammenfassung haben und das halt auch mit medizinischem Know-how anreichern können. Wenn das lokal in der Arztpraxis auf dem lokalen Gerät des Arztes passiert, habe ich natürlich viel weniger Dinge im Sinne von Exposition, Datenschutz etc., als wenn ich dafür immer erst in die Cloud gehen müsste.
Ich glaube, keiner möchte, dass seine sensiblen Gesundheitsdaten in der amerikanischen Cloud landen. Wenn wir beim Thema Datenschutz bleiben, da ist es ja so, dass damit mittlerweile auch viele, ich sage mal, Wettbewerber werben, dass sie beispielsweise in Deutschland irgendwelche Server bauen. Lenovo baut derzeit Plattformen für sogenannte AI Factories. Also das sind Rechenzentrumsstrukturen, die speziell dafür ausgelegt sind, eben KI-Modelle zu trainieren und zu betreiben. Wird es sowas dann auch lokal geben für den jeweiligen Markt, also jetzt beispielsweise in Deutschland oder Österreich, oder sagt ihr, das ist aus eurer Sicht im Moment nicht notwendig?
Wir sehen schon, dass Kunden von uns, also Cloud Service Provider, egal ob jetzt große oder kleine, hier lokal die Kapazitäten weiter ausbauen, weil die Nachfrage, wie du es gerade beschrieben hast, auch in dem Kontext Souveränität natürlich da ist: Daten hier im Land und vielleicht auch möglichst lokal zu lassen, wenn ich es nicht sogar selber in meinem eigenen Rechenzentrum betreibe. Also das passiert ganz konkret. Die Frage ist aber, muss jeder für sich die eigene KI-Factory aufbauen? Vermutlich nicht. Aber baue ich trotzdem selber, ich nenne das immer den Landing Zone in meinem eigenen Rechenzentrum auf, um dort mit meinen unternehmenseigenen Daten arbeiten zu können? Ich glaube, das ist schon eine Grundfähigkeit, die ganz viele Unternehmen aufbauen müssen. Und man sich auch die Frage da stellen muss: Mache ich das selber? Habe ich dann die Kompetenz und das Know-how oder mit einem passenden Partner? Oder gebe ich das auch in der Public Cloud in Deutschland, weil das schon nochmal ein anderer Level von Kontrolle ist: Wo sind meine Daten und habe ich wirklich das Recht dazu, bestimmen, was damit passiert?
Wie ist denn deine Erfahrung so aus dem Alltag? Sind denn die deutschen Unternehmerinnen und Unternehmer schon an dem Punkt, dass sie eben genau das sagen und beispielsweise eine Strategie haben für: Ich möchte diesen Teil der Daten, beispielsweise Arztpraxis, den will ich wirklich hier nur lokal haben, da soll keine Kombination mit einer Cloud und so weiter. Oder wo stehen wir da in deiner Beobachtung?
Ich glaube, das ist heute tatsächlich super verschieden. Meist sind diejenigen, die aus einer regulierten Branche oder die Nähe zu einer regulierten Branche haben, wir hatten ja gerade das Thema Medizin, aber Banken, Versicherungen etc. genauso unterwegs. Deren Denken auch, Grund der regulatorischen Auflagen, ist das meist heute schon verankert. Also da findet es statt, da ist das vom Denken her schon da. Die hatten eher das Hindernis, dass sie gesagt haben, ich sehe, dass die Cloud mir mehr Möglichkeiten bietet, aber ich möchte mit meinen Daten nicht dahin. Also wie schaffe ich mir selber eigens diese KI-Fähigkeit in meinem eigenen Rechenzentrum? Aber da geht, wie gesagt, ganz viel, und man muss es einfach nur tun und die Kompetenz dafür aufbauen. Das ist wieder das Thema Landing Zone, was ich vorhin erwähnt habe.
Es gibt aber auch andere Firmen, die einfach vor einiger Zeit auch die Entscheidung getroffen haben, in eine Partnerschaft mit einem oder zwei großen globalen Cloud-Anbietern zu gehen und sich heute schon die Frage stellen: Bleibt es dauerhaft so? Und wie sieht denn auch mein Weg aus, zumindest mit einem Teil meiner Anwendung, meiner Daten zurückzugehen? Man nennt das Repatriation, quasi wieder in eine eigene Infrastruktur zu investieren, um da einfach wirklich selber die komplette Kontrolle zu haben.
Jetzt ist Lenovo eine chinesische Firma, und viele machen sich ja im Moment Gedanken zu abhängig zu sein von China und von den USA. Ist das etwas, mit dem ihr auch im Alltag zu tun habt, dass es da eine gewisse Skepsis gibt? Das nehme ich so gar nicht, weder in Deutschland noch in Österreich wahr. Die Kunden erleben uns als einen Global Player mit über 30 Manufacturing Sites global, mit globalen Lieferketten. Wir hatten es am Anfang, die natürlich auch wichtig sind, um eine entsprechende Versorgungssicherheit und Zuverlässigkeit herzustellen, mit eigenen Werken in Europa, in Budapest, wo wir in Europe for Europe produzieren. Da sehe ich die Wahrnehmung so nicht, sondern einfach eher eine Adaption, dass wir in einer globalen Welt unterwegs sind und die Kunden dann eher hinterfragen, worüber habe ich selber die Kontrolle. Weil Souveränität bedeutet ja nicht, irgendwas selber zu machen, sondern selber die Entscheidungsfähigkeit zu haben. Und die haben die Kunden mit uns als Technologie-Lieferant und als Lösungspartner.
Andreas Thomasch von Lenovo im Brand1-Podcast. Und hier geht es gleich weiter. Andreas, ihr arbeitet ja auch bereits mit Partnern an ziemlich konkreten KI-Anwendungen, also zum Beispiel für die Industrie, für den Handel oder auch ganz konkret für die Hotellerie. Wo siehst du denn momentan so die spannendsten Einsatzbereiche, wo du siehst, da geht es wirklich voran?
Ich glaube, in Einzelnen jetzt zu benennen, ist eine spannende Herausforderung. Ich würde vielleicht mal so pro Branche einen kurzen Schnappschuss liefern. Ich sehe auf der einen Seite, dass in dem Bereich Retail, also Einzelhandel, einfach, weil man dort schon immer viel Geschwindigkeit, hohe Schlagzahl gewohnt ist, die Adaption von Technologie sehr, sehr schnell stattfindet. Und dass damit auch Dinge wie, wie viel Infrastruktur ist auch in einem Einzelhandelsmarkt in einem Lager vorhanden und was kann ich dadurch, dass die Daten dort sind und ich die erfassen kann, dann mit KI nutzen. Das fängt mit einfachen Dingen wie Self-Checkout in der Kasse an, aber natürlich auch der Möglichkeit, kann ich den Kunden vielleicht an der Kasse darauf hinweisen, was er vergessen hat einzukaufen, weil er es regelmäßig einkauft. Also da sehe ich eine hohe Affinität zu Technologienutzung und gleichzeitig aber auch die Fähigkeit, sehr, sehr schnell Dinge umzusetzen, weil einfach der Einzelhandel gewohnt ist, sehr, sehr schnell getaktet zu sein.
Wenn ich jetzt mal in Richtung Maschinenbau, Industrie etc. gehe, dann gab es ja vor einiger Zeit das Thema Industrie 4.0, was bei einigen auch eher zur Enttäuschung geführt hat. Aber da ist mittlerweile die Grundlage da, dass viele Daten, viel Digitalisierung stattgefunden hat und jetzt eher der nächste Schritt passieren würde mit der KI-Anwendung, zu sagen, wie kann ich denn diese Daten, die ich da jetzt habe, wirklich heben, um meinen Produktionsprozess zu automatisieren. Und das ist der eine Aspekt. Und der zweite Aspekt ist, wie kann ich denn aus diesen Daten, die ich habe, vielleicht sogar ein anderes Geschäftsmodell nochmal ableiten? Denn bei KI geht es ja nicht nur um Automatisierung, sondern da entstehen auch neue Geschäftsprozesse oder Geschäftsmöglichkeiten, zu sagen, wie kann ich diese Daten monetarisieren oder wie kann ich meinen Kunden mit zusätzlichen Daten und Erkenntnissen daraus, weil das liefert die KI einen Mehrwert, liefern, für die sie auch bereit sind, was zu bezahlen. Das wäre vielleicht, wenn man das mal anschaut, als zwei Beispielbranchen. Ansonsten sind alle diejenigen Branchen, die schon immer einen hohen Datenstandard hatten, weil sie reguliert waren, weil sie Prozesse dokumentieren mussten etc., prinzipiell in einer guten Voraussetzung, KI einzuführen und dafür einen Nutzen zu haben. Und weshalb ist das so? Weil sie ihre Prozesse gut dokumentiert haben. Das heißt, ich kann auch einer KI gut beibringen, wie ein Prozess abläuft. Wenn ich selber für mich als Unternehmen meine Prozesse schlecht dokumentiert habe und Das ist eher in den Köpfen einzelner Mitarbeiter. Dann ist es schwierig, von da aus das wirklich mit KI nutzbar zu machen.
Woran scheitert das denn in der Praxis aus deiner Sicht am häufigsten? Also den letzten Fall, der ist natürlich nachvollziehbar, wenn das Wissen im Kopf der Mitarbeitenden ist. Aber wo hakt es aus deiner Sicht am häufigsten, wenn ihr so im Alltag unterwegs seid? Also ich würde es rundherum sagen: Was sind gute Anzeichen, dass es funktioniert? Weil ich einfach mit einem positiven Mindset finde, kann man das Thema besser vorantreiben. Immer dort, wo die Fachlichkeit oder der Fachbereich, der es hinterher wirklich von der Prozessseite einsetzen würde, gemeinsam mit dem IT-Bereich am Tisch sitzt und ein gemeinsames Verständnis hergestellt wird: Was braucht es? Wie sieht das Anwendungs- Szenario wirklich aus? Und man auch ernsthaft darüber diskutiert, welchen Wunsch kann man vielleicht nicht erfüllen oder womit fängt man als realistische Erwartungshaltung an? Ich glaube, dann funktioniert es gut. Immer dort, wo es entweder nur aus dem Fachbereich herausgetrieben wird, und das sind meist dann noch Dinge, die relativ schnell in der Cloud-Welt landen und dann zur Ernüchterung führen. Denn dann habe ich einen tollen Piloten gemacht, aber es skaliert halt nicht. Es skaliert, wenn es zwei Mitarbeiter benutzen, aber wenn ich es in den Prozess integrieren möchte, wo 25 Mitarbeiter betroffen sind, dann funktioniert es halt nicht, weil der Datenfluss nicht klar ist, weil nicht klar ist, welche Daten darf ich wirklich rausgeben, etc. Also eine Voraussetzung: Fachbereich und IT sitzen gemeinsam am Tisch. Das Zweite ist, ich habe als Unternehmen selber eine Kompetenz für den Betrieb oder zumindest den Umgang mit KI selber aufgebaut. Das heißt, ich kann einschätzen, was sollte bei mir lokal laufen. Ich weiß, was ich an Daten habe und wie die mit KI nutzbar sind und wo diese Daten sind. Und ich habe mir eine eigene, ich sage das jetzt mal, Landing Zone oder Sandkasten gebaut, wo ich solche Dinge auch bei mir im Haus in einer sicheren Umgebung ausprobieren kann, mit meinem eigenen Know-how. Denn das bringt mir wiederum Geschwindigkeit und dann Entscheidungsfähigkeit im Unternehmen, um da zügig voranzugehen.
Ich hatte vorhin ja gezeigt, wie schnell sich das auch im Markt alles ändert. Also wenn ich da nicht die Chance habe, selber auch in der Geschwindigkeit dabei zu sein, wird es schwierig. Geschwindigkeit ist sicher ein gutes Stichwort, denn ich sage mal, eine nachvollziehbare Sorge von Menschen ist ja die Angst vor Arbeitsplatzverlust durch KI. Glaubt man den Berichten der letzten Monate, werden vor allem weniger Nachwuchsleute eingestellt in vielen Unternehmen. Wie schaust du denn auf diese Debatte?
Also ich weiß, dass da vieles durch die Presse gegangen ist, aber ich habe da auch mit einigen neulich im Rande in der Konferenz gesprochen, die sagen, sie sehen das so gar nicht, weil das Know-how auch in der Branche einzusteigen. Seniorenmitarbeiter im Consulting-Bereich beispielsweise zuzuarbeiten, setzt ja voraus, dass ich auch Dinge inhaltlich im Zusammenhang lerne und eben nicht nur Daten schön aufbereite oder mit einem Prompt irgendwo zusammenführe. Also zumindest aus dem, was ich hier im Umfeld gehört habe, insbesondere aus der Beratungsbranche, habe ich das so nicht wieder gespiegelt bekommen, weil man sich eben auch bewusst ist, dass man auch dann nur Seniorenmitarbeiter bekommt, wenn man mal Juniorenmitarbeiter eingestellt hat und denen die Chance gegeben hat zu lernen, an der Seite von Seniorenmitarbeitern.
Aber ich glaube, das ist ja genau die Sorge, wenn sich das sozusagen bewahrheiten würde. Also es gibt zumindest für die USA auch schon so erste Zahlen, die das so ein bisschen andeuten, dass das wohl so ist, dass weniger Juniors eingestellt werden. Das ist genau die Sorge, dass es dann irgendwann gar niemanden mehr gibt, der dann Senior werden kann.
Ja, aber ich glaube, dass das heute ein bisschen mehr wiedergegebene Dinge sind, die nicht unbedingt der Realität dessen entsprechen, was wirklich im Markt stattfindet. Also ich würde da sagen, kritisch zu bleiben, weil die Firmen sich sehr wohl bewusst sind, dass eine Talentpipeline eben nicht einfach so passiert am Markt, sondern dass man auch eine Talentpipeline selber entwickeln muss. Und das zum Schluss hinterher auch die Wettbewerbsfähigkeit von den Unternehmen ausmacht, beispielsweise auch unserer eigenen. Und wenn wir nicht selber dafür sorgen, dass wir gute junge Talente an Bord nehmen, würde ich dann erwarten, dass sich mit entsprechender Loyalität und dem Insight auch in die Company unser Geschäftsmodell funktioniert.
Du hast vorhin selber angesprochen, dass du eher optimistisch auf die ganze Entwicklung schaust. Was macht dir denn Mut, dass wir da in, ich sage mal, vier, fünf Jahren vielleicht wirklich ein paar große Schritte weiter sind und KI uns wirklich als nützliches Tool hilft, produktiver zu sein und vielleicht ja wirklich beispielsweise neue Geschäftsmodelle zu entwickeln?
Also ich glaube, wenn man zurückschaut, auch in Deutschland, egal ob die Automobilbranche oder Fertigungsbranche etc., dann haben wir schon entsprechende Wellen von Automatisierung erlebt, mit denen immer erst mal solche Ängste aufkamen. Was es hinterher aber meist bewirkt hat, ist, dass man Dinge schneller qualitativ hochwertiger produzieren und herstellen konnte. Und zum Schluss ist das, was im IT-Bereich ja passiert, dass man auf Basis von Daten Dinge als Produkt oder Lösungen herstellt und auch dort dann Qualität und Geschwindigkeit zunehmen werden. Also deswegen, ich glaube, dass dann an anderen Stellen die Nutzung der qualitativen Vorteile die Geschwindigkeit überwiegen wird, die uns wiederum im Wettbewerbsvorteil hier in Deutschland entsprechen gibt.
Sagt Andreas Tomasch von Lenovo Deutschland und Österreich im Brand1 Podcast. Und ich sage vielen Dank für das Gespräch. Vielen Dank, hat mir Spaß gemacht. Mehr zu KI findet ihr im Februar-Heft der Brand1-Kolleginnen und Kollegen, denn darin geht es um die Sichtbarkeit in Zeiten von KI. Ihr findet diese Ausgabe digital auf brand1.de und auch hier im Podcast haben wir uns ja im Februar intensiver mit KI auseinandergesetzt. In einer Folge geht es beispielsweise um Gemüsesuppe und soziale Netzwerke. In den Shownotes dieser Folge hier findet ihr den Link zum Brand1-Magazin und zu den Februar-Podcast-Folgen zu KI. Und solltet ihr unseren Podcast hier sowie die Gedanken unserer Gäste mögen, dann empfehlt doch den Brand1-Podcast gerne einer Freundin oder einem Freund. Ich bin mir ziemlich sicher, ihr kennt jemanden, für den oder die dieser andere Blick auf Wirtschaft interessant sein kann. Und für den Veröffentlichungsrhythmus unseres Podcasts hier braucht ihr keine künstliche Intelligenz, denn wir liefern einfach jeden Freitag eine neue Episode und so wird es auch am nächsten Freitag sein. Ihr könntet euch natürlich mit KI eine automatische Erinnerung bauen oder auch einen Dienst, der dann die neue Episode direkt in eure Podcast-Playlist einbaut. So oder so, ich freue mich, wenn wir uns hier an dieser Stelle wiederhören. Gerne bis nächste Woche. Der Brand1-Podcast: Wirtschaft anders denken. Jede Woche bei detektor.fm. Der Brand1-Podcast wird produziert vom Podcast-Radio detektor.fm. Redaktion: Stefan Ziegert, Katja Stamm und Gerolf Meyer. In Zusammenarbeit mit Frank Dahlmann vom Brand1-Magazin. Moderation: Christian Bollert.