AUTOREN

Hilary Frisch, CFA
Senior Research Analyst for Software Services & Enterprise Technology

Naveen Jayasundaram
Senior Analyst for Internet and Media, ClearBridge Investments

Anuj Parikh
Research Analyst for Technology Hardware, ClearBridge Investments
Die wichtigsten Punkte
Die KI-Nachfrage bedeutet aus unserer Sicht Wachstumschancen für Unternehmen in der Halbleiter-Wertschöpfungskette, die eine höhere Rechenleistung ermöglichen, sowie für Hyperscale-Cloud-Anbieter und Softwareunternehmen, die durch KI ihre Dienstleistungen verbessern und neue Produkte entwickeln können.
Der rasante Anstieg der Nutzung von generativer KI beschleunigt die Nachfrage nach Grafikprozessoren (GPUs), die die Grundbausteine für die parallele Verarbeitung großer Datenmengen sind, sowie die Nachfrage nach Chips für Rechenzentren, Foundrys und Hersteller hochentwickelter Geräte.
Mega-Cap-Unternehmen, auf die der Löwenanteil des Wachstums in der Public Cloud entfällt, sind im Bereich der generativen KI ebenso gut positioniert, da sie sowohl über die als Foundation Models dienenden Sprachmodelle als auch über die rohe Rechenleistung verfügen, die für die Anwendung generativer KI in großem Maßstab erforderlich ist.
Durch die Möglichkeit, KI in ein breites Spektrum bestehender Anwendungen und in jede Ebene des Software-Stacks einzubinden, dürfte sich in dem Maße der Gesamtzielmarkt der Branche vergrößern, wie die Software die Automatisierung von immer mehr manuellen Aufgaben ermöglicht.
Large Language Models markieren einen Wendepunkt in der KI-Entwicklung
Das World Wide Web wurde der Öffentlichkeit vier Jahre nach seiner Entstehung und mehr als 20 Jahre nach dem Beginn der Entwicklung der Netzwerkkommunikation zugänglich gemacht. Die künstliche Intelligenz (KI) steht mit der Markteinführung der generativen KI an einem ähnlichen Wendepunkt. Zwar wird die KI bereits seit über zehn Jahren kommerziell genutzt, doch die kontinuierlichen Fortschritte bei der Verarbeitung natürlicher Sprache und der Rechenleistung in den letzten vier bis fünf Jahren haben zu immer ausgereifteren Fähigkeiten geführt. Sei es bei Sprachassistenten wie Siri und Alexa oder beim autonomen Fahren – die KI hat einen neuen Zyklus schneller Innovation in Gang gesetzt.
ChatGPT und ähnliche große Sprachmodelle (Large Language Models, LLMs) haben bei den einen große Begeisterung ausgelöst, andere mahnen zur Vorsicht. Wir blicken darüber hinaus und glauben, dass KI bald breit akzeptiert und angewendet wird, was zu einer Effizienzsteigerung für die Unternehmen und zu einer Vergrößerung der bestehenden Endmärkte führen wird. Wie bei allen aufkommenden Innovationen befindet sich auch die KI-Entwicklung in ständiger Bewegung, und es entstehen laufend neue Chancen und Wettbewerbsrisiken.
Aus Investitionssicht rechnen wir damit, dass die KI-Nachfrage kurz- bis mittelfristig Wachstumschancen bedeutet, und zwar zum einen für Unternehmen in der Halbleiter-Wertschöpfungskette, die eine höhere Rechenleistung ermöglichen, und zum anderen für Hyperscale-Cloud-Anbieter und Softwareunternehmen, die durch KI ihre Dienstleistungen verbessern und neue Produkte entwickeln können. Die generative KI könnte in einigen Bereichen der Internetnutzung zu neuen Wettbewerbsrisiken führen und die etablierten Unternehmen zu höheren Ausgaben zwingen, die erforderlich sind, wenn sie mit ihren Konkurrenten Schritt halten wollen. Der Vorsprung von Pionieren könnte in einigen Bereichen den Ausschlag geben, während in anderen Bereichen durch den Wettbewerb eine Entwicklung zur Massenware vonstattengehen könnte. Wie sich LLMs entwickeln werden und ob von Open-Source-Angeboten Wettbewerbsdruck ausgehen wird, könnte zum Beispiel langfristig erhebliche Auswirkungen auf das Geschäft der Hyperscaler haben, die zuerst auf dem Markt waren.
Generative KI sorgt für gigantische Nachfrage nach GPUs
KI bezieht sich auf die Entwicklung von Rechenleistung und damit verbundenen Technologien wie Robotern mit dem Ziel, menschliche Fähigkeiten nachzuahmen und sogar zu übertreffen. Computer erlangen diese Fähigkeiten, indem sie sich selbst mit riesigen Datenmengen trainieren. Dies erfordert eine enorme Verarbeitungsleistung. Generative KI bezieht sich auf die Fähigkeit von Modellen für die Verarbeitung natürlicher Sprache (Natural-Language-Processing-Modellen), in Reaktion auf Abfragen Text- und Grafikantworten zu generieren.
Server analysieren Daten am effektivsten, wenn ihre GPU viele Rechenkerne (oder Prozessoren) aufweist. Eine GPU ist ein spezieller Chip, der eine große Anzahl von Berechnungen mit geringer Genauigkeit effizient und parallel verarbeiten kann. Aufgrund des massiven Bedarfs an parallelen Berechnungen für das Training von LLMs verlagert sich die Nachfrage von seriellen Prozessoren, auch bekannt als Central Processing Units (CPUs), auf GPUs (Abbildung 1). Grafikprozessoren (GPUs) sind die Grundlagentechnologie für KI, und das steigende Interesse an generativer KI und deren Nutzung führen zu einer zunehmenden Nachfrage nach diesen Grundbausteinen. ChatGPT hat zu einem Durchbruch bei der Einführung von KI geführt. Verschiedene Branchen nutzen nun KI-Algorithmen und maschinelles Lernen, um ihre Produktivität zu verbessern und mehr Umsatz zu erzielen.
Abbildung 1: KI-Server basieren auf GPUs

Quelle: Schätzungen von J.P. Morgan.
In Rechenzentren, die eine Vielzahl von Servern für unterschiedliche Rechenanforderungen betreiben, führt die zunehmende Verbreitung von KI zu einer verstärkten Nachfrage nach KI-Servern. Der Anteil der KI-Server im Rechenzentrum wird voraussichtlich erheblich steigen, von einem derzeit mittleren einstelligen Prozentsatz an Servern mit KI-Halbleitern auf mittelfristig etwa ein Drittel.
Abbildung 2: Anstieg der Auslieferungen von KI-Servern

Quelle: IDC, Schätzungen von J.P. Morgan. Es kann nicht zugesichert werden, dass sich Prognosen, Schätzungen oder Hochrechnungen als richtig erweisen.
Der derzeit dominierende Anbieter von GPUs mit einem geschätzten Anteil von 95 % bis 100 % am Halbleitermarkt für KI-Training wird seine Marktführerschaft im Zuge der zunehmenden Nachfrage nach generativer KI voraussichtlich behaupten. Grund dafür sind seine Full-Stack-Computing-Plattform, die hohe Leistung seiner GPUs und sein günstiges Preis-Leistungs-Verhältnis gegenüber konkurrierenden Chips sowie sein Vorsprung bei branchenspezifischen Bibliotheken, vortrainierten Modellen und anderer Software, die die Einführung in Unternehmen erleichtert. Der zweitgrößte Halbleiterentwickler ist auf dem Markt für Rechenzentrumsserver weit abgeschlagen, wobei die Cloud-Anbieter ihre Chips teilweise auch selbst entwickeln. Mehrere privat gehaltene Unternehmen, die verbesserte Computertechnologien anbieten, könnten ebenfalls im Kampf um Unternehmenskunden mitmischen. Allerdings fehlt ihnen derzeit ein ganzheitliches Ökosystem, das für die Bereitstellung einer effektiven KI-Infrastruktur und die Bewältigung von Nischenanforderungen entscheidend ist.
Abbildung 3: Steigerung der Verbreitung von KI-Servern durch generative KI

Quelle: Bank of America Merrill Lynch, J.P. Morgan, UBS, Visible Alpha. Es kann nicht zugesichert werden, dass sich Prognosen, Schätzungen oder Hochrechnungen als richtig erweisen.
Halbleiterhersteller, die Cloud-Hyperscaler mit anderen Produkten für den Einsatz von KI-Infrastrukturen beliefern, profitieren ebenfalls von der gestiegenen Nachfrage. Dazu gehören maßgeschneiderte Chips und Netzwerklösungen, Halbleiter-Foundrys und Hersteller von Halbleiterausrüstungen, die für die Produktion der für die KI erforderlichen Spitzenchips entscheidend sind.
Schnellere Cloud-Verbreitung durch Einsatz von KI
Bereits lange vor der jüngsten Markteinführung von ChatGPT und hochentwickelten LLMs wurden Rechenlasten schnell in die Cloud verlagert, was große Hyperscaler zu den wichtigsten Anbietern anspruchsvoller technologischer Infrastruktur für Unternehmenskunden machte. Im Bereich Public Cloud kommt es auf die Größe an, was dazu führte, dass eine kleine Gruppe von Unternehmen den Löwenanteil des Wachstums in diesem Segment für sich verbuchen konnte. Diese Unternehmen sind im Bereich der generativen KI ebenso gut positioniert, da sie sowohl über die als Foundation Models dienenden Sprachmodelle als auch über die rohe Rechenleistung verfügen, die für die Anwendung generativer KI in großem Maßstab erforderlich ist. Wir gehen daher davon aus, dass sich die Infrastrukturebene, auf der die Entwicklung generativer KI aufbaut, mit der Zeit Züge eines Oligopols annehmen wird.
Abbildung 4: Cloud-Hyperscaler sind gut positioniert, um ihre Führungsposition bei KI zu behaupten

Quelle: Morgan Stanley Research.
Während sich das Tempo der Cloud-Verbreitung nach dem explosionsartigen Anstieg in der Pandemie wieder normalisiert, wird die generative KI unserer Meinung nach der Katalysator für die nächste Etappe des Wachstums sein. Die Public Cloud bietet sowohl die Geschwindigkeit als auch die Flexibilität, die für die Anwendung von KI auf Geschäftsprobleme erforderlich sind. Früher Anwender können auf Grundlage der Ebene aus APIs und Infrastructure-as-a-Service (IaaS), die von Hyperscalern zur Verfügung gestellt wird, innerhalb weniger Wochen KI-gesteuerte Anwendungen entwickeln, wohingegen es Monate oder Jahre dauern würde, wenn die Infrastruktur vor Ort von Grund auf neu aufgebaut würde. Bei der Anpassung von LLMs geht es um riesige Datenmengen, die häufig in der Cloud liegen, was die Möglichkeiten für Hyperscale-Cloud-Anbieter und das dahinter stehende Ökosystem, einschließlich Startups und Dienstleistungsunternehmen, erweitert.
Allerdings könnten die Hyperscaler durch die zunehmende Konkurrenz von Open-Source-LLMs in Bedrängnis geraten. Einige Vertreter der Cloud-Branche sind der Meinung, dass LLMs durch Open-Source-Möglichkeiten letztendlich zu einer Massenware werden könnten, da viele Unternehmen dadurch in der Lage wären, relativ undifferenzierte LLMs zu geringen Kosten anzubieten. Die Nutzer von Open-Source-Modellen müssen jedoch bedenken, wem die Daten „gehören“, die den Modellen zugrunde liegen. Obwohl die Entwicklung von LLMs noch in den Kinderschuhen steckt, sind wir der Meinung, dass Bedenken hinsichtlich der Sicherheit und der Verwendung von proprietären Daten ein erhebliches Risiko für Open-Source-Anbieter/-Technologien darstellen. In dieser Hinsicht dürften Public Clouds mit bestehenden Sicherheitsvorkehrungen im Vorteil sein. Zwar werden einige Kunden wahrscheinlich mit Open-Source-LLMs experimentieren, aber viele größere Unternehmen werden kaum die mit diesem Modell verbundenen Risiken auf sich nehmen.
Jenseits von Cloud-Diensten hat KI das Potenzial, billionenschwere Branchen wie die Online-Werbung grundlegend zu verändern. Aus Sicht der Websuche können Chatbots wie ChatGPT die Zeit für die Beantwortung komplexer Fragen (z. B. „Welcher Canyon in Colorado eignet sich am besten zum Wandern mit einem Hund?“) im Vergleich zu einer herkömmlichen Suchmaschine drastisch verkürzen. Ähnlich wie bei der Umstellung von Desktop-Computern auf Mobilgeräte in den frühen 2010er Jahren könnte sich dies zumindest kurzfristig negativ auf die Monetarisierung der Suchmaschinen von etablierten Anbietern auswirken. Die zusätzlichen Investitionen für die Implementierung generativer KI in großem Maßstab könnten auch zu höheren Investitionsausgaben für führende Online-Werbeplattformen führen. Wenn dadurch die Margen unter Druck geraten, könnte dies den Cashflow belasten.
Sobald die Anlaufschwierigkeiten überwunden sind, dürften KI-Tools jedoch sowohl den Plattformen als auch den Werbetreibenden durch eine gezieltere Ausrichtung der Anzeigen Auftrieb geben. Mit generativer KI können dynamisch Werbeinhalte generiert werden, die auf die individuellen Nutzer von Suchmaschinen und YouTube zugeschnitten sind. Online-Werbeplattformen, die aufgrund der Datenschutzbestimmungen im Zusammenhang mit dem Identifier for Advertisers (IDFA) ihren Personalisierungsansatz überdenken mussten, dürften durch die Funktionen generativer KI einige dieser Möglichkeiten zur gezielten Werbung zurückgewinnen. So könnte Instagram beispielsweise diese Tools nutzen, um aus den statischen Bildern einer Marke Videoanzeigen zu erstellen und dadurch die Konversionsraten zu erhöhen. In WhatsApp integrierte Chatbots können kleinen Unternehmen dabei helfen, mit mehr Kunden in Echtzeit zu kommunizieren. Wir behalten die Veränderungen in der Internetnutzung der Verbraucher genau im Auge, um herauszufinden, wie sich die beschriebenen Vor- und Nachteile auf Internetunternehmen aller Größenordnungen auswirken könnten, wenn sie generative KI einsetzen.
Ein weiterer wichtiger Bereich, der im Hinblick auf LLMs zu beachten ist, ist die Anwendungsebene, und damit die Entwicklung von branchen- und unternehmensspezifischer Software. Zwar sind die größten Modelle geeignet, um allgemeines Wissen zur Verfügung zu stellen, das aus riesigen Datensätzen gewonnen wurde, doch haben Modelle, die mit branchenspezifischen Daten trainiert wurden, für die meisten Unternehmensanwendungen einen Vorteil gegenüber größeren, weniger zielgerichteten Modellen. Erforderlich dafür ist der Zugang zu proprietären, vom Unternehmen selbst erhobenen Daten (First-Party-Daten) sowie die tatsächliche Nutzung durch Millionen von Endnutzern, um die Qualität eines LLM durch menschliches Feedback zu verfeinern. Ein gutes Beispiel ist eine dialogorientierte Suchmaschine, die auf generativer KI beruht und bei der die Benutzer durch ihre Klicks, ihr Engagement und ihre Folgefragen indirekt dazu beitragen, das Modell im Laufe der Zeit zu verbessern. Wenn LLMs selbst im Laufe der Zeit zur Massenware werden, glauben wir, dass Unternehmen, die ihre Konkurrenten bei der Nutzung generativer KI überholen, auch über ausgezeichnete Kapazitäten im Bereich Design und User Experience verfügen werden. Dies ist einer der wichtigsten Bereiche, die bei der Bewertung der Auswirkungen von KI auf Software- und Dienstleistungsanbieter zu berücksichtigen sind.
Generative KI wird die nächste Software-Innovationswelle auslösen
Einige wenige führende Softwarehersteller vermarkten bereits durch KI erweiterte Versionen ihrer Software. Dies ermöglicht eine Vorausschau hinsichtlich der Voraussetzungen, die für eine erfolgreiche Softwareintegration von KI erfüllt sein müssen: die Verfügbarkeit guter Daten, Fachwissen und die Fähigkeit, LLMs zur Lösung spezifischer Kundenprobleme einzusetzen. Durch die Möglichkeit, KI in ein breites Spektrum bestehender Anwendungen und in jede Ebene des Software-Stacks einzubinden, dürfte sich in dem Maße der Gesamtzielmarkt der Branche vergrößern, wie die Software die Automatisierung von immer mehr manuellen Aufgaben ermöglicht. Vor allem bei der Programmierung sowie bei der Datenverwaltung und ‑analyse scheint die KI-Integration zu erheblichen Verbesserungen zu führen. Softwareanbieter, die Bereiche mit hohen Einstiegshürden bedienen, dürften auch über eine hohe Preissetzungsmacht verfügen, wenn sie den Kunden eine höhere Produktivität ermöglichen.
Abbildung 5: KI-Anteil an IT- und Softwareausgaben gewinnt an Bedeutung

Quelle: ClearBridge Investments. Die Prognosen für 2026 basieren auf den Schätzungen der IT- und Softwareausgaben von Gartner vom Oktober 2022. Die Gesamtausgaben für IT beinhalten keine Ausgaben für Geräte. Es kann nicht zugesichert werden, dass sich Prognosen, Schätzungen oder Hochrechnungen als richtig erweisen.
Anbieter von Software-as-a-Service (SaaS) haben KI schnell für sich entdeckt, um Chancen zu nutzen und wettbewerbsfähig zu bleiben. Dadurch wurde ein schneller Innovationszyklus bei Anwendungen der generativen KI ausgelöst. Auch wenn weniger Nutzer (oder Lizenzplätze) pro Unternehmenskunde teilweise ein Risiko darstellen, wird dies unserer Meinung nach im Laufe der Zeit durch höhere Preise für KI-gestützte Angebote mehr als ausgeglichen. Hinzu kommt, dass SaaS-Unternehmen, die – etwa in den Bereichen Personalwesen und Finanzanwendungen – große Mengen an Kundendaten handhaben und erhebliche regulatorische Einstiegshürden überwunden haben, bestens positioniert sind, um ihren Wettbewerbsvorteil aufrechtzuerhalten, wenn mithilfe von KI immer mehr Funktionen automatisiert werden. Andererseits glauben wir, dass das Risiko einer Software-Disintermediation in solchen Segmenten am größten sein wird, die von manuellen Prozessen bestimmt werden, bei denen der Fokus auf den Verbrauchern und Inhalten liegt und die durch niedrige Einstiegshürden und geringe Kundenbindungsraten gekennzeichnet sind.
Dienstleistungsunternehmen werden eine wichtige Rolle bei der Unterstützung der Kunden in der ersten Phase der KI-Integration spielen. Diese Phase könnte sich über drei bis fünf Jahre erstrecken. Noch nicht abzusehen ist derzeit, wie viel die KI-Automatisierung in Zukunft übernehmen und inwieweit sie den Bedarf an laufenden Dienstleistungen und IT-Beratungsleistungen verringern wird.
Wie geht es weiter?
Da die generative KI in der Unternehmens-IT und auf den Verbrauchermärkten erst seit kurzem eingesetzt wird, steht die Integration der KI in die Weltwirtschaft noch ganz am Anfang. Vom Standpunkt des Geschäftsmodells und der Investitionen aus gesehen, glauben wir, dass es einige Schlüsselbereiche zu beachten gilt, wenn generative KI in größerem Umfang zum Einsatz kommt: die Kostenkurve für die Implementierung, das Internetverhalten der Verbraucher mit KI-gestützter Suche und die Maßnahmen von Regulierungsbehörden und Publishern zur Kontrolle und wahrscheinlichen Begrenzung der proprietären Daten, die für das Training von LLMs zur Verfügung stehen. Neben den vertikalen unternehmens- und branchenspezifischen Auswirkungen wird die generative KI auch allgemeinere Auswirkungen haben, da sich die Nutzungsmöglichkeiten auf immer mehr Bereiche der Wirtschaft ausdehnen werden. Wir werden uns in einem Folgebericht näher mit den makroökonomischen Auswirkungen der generativen KI befassen und untersuchen, wie sie die langfristige Produktivität und die Inflationserwartungen beeinflussen könnte.
Definitionen
Künstliche Intelligenz (KI), auch bekannt als maschinelle Intelligenz, ist ein Zweig der Informatik, der sich mit dem Aufbau und der Pflege von Technologien befasst, die lernen können, selbstständig Entscheidungen zu treffen und Aufgaben stellvertretend für einen Menschen auszuführen.
Generative KI ist ein weit gefasster Begriff, der jede Art von künstlicher Intelligenz (KI) bezeichnet, die zur Erstellung von neuen Texten, Videos, Tonaufnahmen und neuem Code verwendet werden kann.
Das World Wide Web (auch bekannt als Web, WWW oder Web3) bezieht sich auf alle öffentlichen Websites oder Webseiten, auf die Benutzer von ihren lokalen Computer und anderen Geräten über das Internet zugreifen können.
Ein Large Language Model (LLM) ist ein bestimmter Algorithmus der künstlichen Intelligenz (KI), der Deep-Learning-Techniken und riesige Datensätze verwendet, um neue Inhalte zu verstehen, zusammenzufassen, zu generieren und vorherzusagen.
ChatGPT ist ein KI-Chatbot, der natürliche Sprachverarbeitung nutzt, um wie ein Mensch Gespräche zu führen.
Eine Central Processing Unit (CPU) ist die zentrale Komponente eines Rechners.
Eine Graphics Processing Unit (GPU), also ein Grafikprozessor, ist ein Computerchip, der schnelle mathematische Berechnungen durchführt, um Grafiken und Bilder zu rendern.
Infrastructure-as-a-Service (IaaS) ist eine Form des Cloud-Computings, bei der virtualisierte Rechenressourcen über das Internet bereitgestellt werden.
Software-as-a-Service (SaaS) ist ein Lizenzierungsmodell, bei dem der Zugang zu Software auf Abonnementbasis erfolgt, wobei sich die Software auf externen und nicht auf internen Servern befindet.
Der Identifier for Advertisers (IDFA) ist eine (eindeutige und nach dem Zufallsprinzip erstellte) Gerätekennung, die Apple jedem iOS-Gerät zuweist, ähnlich wie ein Cookie auf einer Webseite.
WO LIEGEN DIE RISIKEN?
Alle Anlagen sind mit Risiken verbunden, ein Verlust des Anlagekapitals ist möglich. Der Wert von Anlagen kann fallen oder steigen, und Anleger erhalten möglicherweise nicht den vollen Anlagebetrag zurück. Aktienkurse schwanken mitunter rasch und heftig. Das kann an Faktoren liegen, die einzelne Unternehmen, Branchen oder Sektoren betreffen, oder an den allgemeinen Marktbedingungen.
Investitionen in schnell wachsende Branchen wie den Technologiesektor (der erfahrungsgemäß eine hohe Volatilität aufweist) können aufgrund der schnellen Produktentwicklung und ‑veränderung insbesondere kurzfristig mit größeren Kursschwankungen einhergehen. Außerdem können sich die Vorschriften ändern, die für wissenschaftliche oder technologische Pionierunternehmen sowie für die Zulassung neuer Arzneimittel und medizinischer Instrumente gelten.
Die dargestellten Einschätzungen sollen lediglich einen Einblick in den Prozess der Wertpapieranalyse gewähren. Die bereitgestellten Informationen stellen weder eine Empfehlung noch eine individuelle Anlageberatung in Bezug auf bestimmte Wertpapiere, Strategien oder Anlageprodukte dar und sind kein Hinweis auf Handelsabsichten in Bezug auf ein durch Franklin Templeton verwaltetes Portfolio. Die vorliegenden Informationen stellen keine vollständige Analyse aller wesentlichen Fakten zu den genannten Branchen, Wertpapieren oder Anlagen dar und sind nicht als Anlageempfehlung anzusehen. Sie sollen vielmehr Einblick in das Vorgehen bei der Portfolioauswahl und in den Research-Prozess gewähren. Die Daten und Fakten stammen aus Quellen, die als zuverlässig betrachtet werden, wurden jedoch nicht unabhängig auf Vollständigkeit oder Richtigkeit überprüft. Die hier dargelegten Ansichten sind nicht als Anlageberatung oder als Angebot für ein bestimmtes Wertpapier zu verstehen.
Alle Unternehmen und/oder Fallstudien im vorliegenden Dokument dienen lediglich der Veranschaulichung. Eine Anlage wird derzeit nicht unbedingt in einem von Franklin Templeton empfohlenen Portfolio gehalten. Die bereitgestellten Informationen stellen weder eine Empfehlung noch eine individuelle Anlageberatung in Bezug auf bestimmte Wertpapiere, Strategien oder Anlageprodukte dar und sind kein Hinweis auf Handelsabsichten eines durch Franklin Templeton verwalteten Portfolios. Die Wertentwicklung der Vergangenheit ist keine Garantie für die Zukunft.
