Zum Inhalt springen

KI

KI ist kein neues Thema. Bereits seit den 40er-Jahren des letzten Jahrhunderts wird auf diesem Gebiet geforscht, auch bekannt unter dem Begriff „Neuronale Netze“.

Die Darthmouth-Konferenz, die 1956 von Wissenschaftlern und Studenten initiiert wurde, gilt als Geburtsstunde der KI als akademische Disziplin.

Nach einigen Höhen und Tiefen in der Forschung, die übrigens nicht auf mangelnde Ressourcen in der Computertechnik zurückzuführen waren, sondern auf die Entwicklung von KI-Architekturkonzepten wie Fehlerrückführung und Selbstorganisation von KI-Modellen, gelang John Hopfield 1985 ein entscheidender Durchbruch in der theoretischen Informatik. (Neural networks and physical systems with emergent collective computational abilities, Proceedings National Academy of Sciences, Bd. 79, 1982, S. 2554, zusammen mit D. W. Tank, Neural computation of decisions in optimization problems, Biological Cybernetics).

Nach mehreren weiteren Anläufen gelang Forschern von Google Brain und Google Research im Juni 2017 mit der Architektur Transformers eine echte Revolution in der KI.

Transformers wurde in einem Paper mit dem Titel „Attention is All You Need“ von den Forschern Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser und Illia Polosukhin beschrieben und veröffentlicht.

Darüber hinaus beschäftigen sich unzählige Universitäten, Institutionen und Non-Profit-Organisationen auf der ganzen Welt seit vielen Jahren und Jahrzehnten mit diesem Thema.

Führende Wissenschaftler wie Yoshua Bengio und Geoffrey Hinton sind sich einig, dass die Probleme so schnell wie möglich auf gesellschaftlicher Ebene angegangen werden müssen. Bengio weist aber auch darauf hin, dass die Entwicklung der KI schneller voranschreitet, als die Gesellschaften Schritt halten können. Fortschritte werden in Monaten gemessen, Gesetzgebung, Regulierung und internationale Verträge brauchen Jahre.

Es stellt sich die Frage, ob unsere Gesellschaften auf nationaler und globaler Ebene der Herausforderung KI gewachsen sind.

Für IT-affine Leser gilt: „Don’t panic!“
für alle anderen Leser auch.

Vielleicht konnten wir sie mit diesen wenigen Zeilen bereits für das Thema KI erwärmen. Wer sich für das Thema begeistern möchte, dem sei diese Vortagsreihe ans Herz gelegt. Die Gewinner des Turing Award 2018, des Nobelpreises für Informatik, erklären verständlich, wie KI funktioniert. Wir garantieren Ihnen 90 Minuten, die Ihnen die Grundlagen für eine gesunde Einschätzung der Chancen und Risiken von KI in der Zukunft aufzeigen.

MIT News

Ein Forscherteam des MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) hat einen neuen Ansatz entwickelt, um kleinere Sprachmodelle effizienter und robuster zu machen. Im Gegensatz zu den großen Sprachmodellen, die derzeit vorherrschen, haben kleinere Modelle Probleme mit Ineffizienz und Datenschutz. Das Forscherteam hat ein logikbewusstes Modell entwickelt, das ohne menschliche Annotationen eine beeindruckende Leistung bei Sprachverstehensaufgaben erzielt. Das Modell verwendet ein Konzept namens „textual entailment“, um eine Vielzahl von Sprachverstehensaufgaben zu lösen, bei denen die Beziehung zwischen zwei Sätzen untersucht wird. Das Modell wurde mit einer Methode namens „Zero-Shot-Adaptation“ trainiert, so dass es sich ohne zusätzliches Training an verschiedene Aufgaben anpassen kann.

Die Forschung zeigt, dass kleinere Modelle mit 350 Millionen Parametern die gleiche Leistung erbringen können wie größere Modelle mit 137 bis 175 Milliarden Parametern. Das Team konnte die Leistung des Modells weiter verbessern, indem es eine Selbsttrainingstechnik einsetzte, bei der das Modell seine eigenen Vorhersagen nutzt, um sich selbst zu trainieren. Um das Problem falscher oder verrauschter Labels zu lösen, wurde ein Algorithmus namens „SimPLE“ entwickelt, der die Qualität der selbst generierten Labels verbessert. Dies führte zu einer höheren Effizienz und Robustheit des Modells.

Hier geht es zum Original MIT-Artikel vom 08.06.2023

Aufgrund der aktuellen, leider vereinfachenden Berichterstattung in den Medien sehen wir einen Bedarf an einfachen und verständlichen Informationen zum Thema KI, insbesondere zu den damit verbundenen Risiken.

KI ist kein neues Thema. Bereits seit den 40er-Jahren des letzten Jahrhunderts wird auf diesem Gebiet geforscht, auch bekannt unter dem Begriff „Neuronale Netze“.

Die Darthmouth-Konferenz, die 1956 von Wissenschaftlern und Studenten initiiert wurde, gilt als Geburtsstunde der KI als akademische Disziplin.

Nach einigen Höhen und Tiefen in der Forschung, die übrigens nicht auf mangelnde Ressourcen in der Computertechnik zurückzuführen waren, sondern auf die Entwicklung von KI-Architekturkonzepten wie Fehlerrückführung und Selbstorganisation von KI-Modellen, gelang John Hopfield 1985 ein entscheidender Durchbruch in der theoretischen Informatik. (Neural networks and physical systems with emergent collective computational abilities, Proceedings National Academy of Sciences, Bd. 79, 1982, S. 2554, zusammen mit D. W. Tank, Neural computation of decisions in optimization problems, Biological Cybernetics).

Nach mehreren weiteren Anläufen gelang Forschern von Google Brain und Google Research im Juni 2017 mit der Architektur Transformers eine echte Revolution in der KI.

Transformers wurde in einem Paper mit dem Titel „Attention is All You Need“ von den Forschern Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser und Illia Polosukhin beschrieben und veröffentlicht.

Darüber hinaus beschäftigen sich unzählige Universitäten, Institutionen und Non-Profit-Organisationen auf der ganzen Welt seit vielen Jahren und Jahrzehnten mit diesem Thema.

Führende Wissenschaftler wie Yoshua Bengio und Geoffrey Hinton sind sich einig, dass die Probleme so schnell wie möglich auf gesellschaftlicher Ebene angegangen werden müssen. Bengio weist aber auch darauf hin, dass die Entwicklung der KI schneller voranschreitet, als die Gesellschaften Schritt halten können. Fortschritte werden in Monaten gemessen, Gesetzgebung, Regulierung und internationale Verträge brauchen Jahre.

Es stellt sich die Frage, ob unsere Gesellschaften auf nationaler und globaler Ebene der Herausforderung KI gewachsen sind.

Für IT-affine Leser gilt: „Don’t panic!“
für alle anderen Leser auch.

Vielleicht konnten wir sie mit diesen wenigen Zeilen bereits für das Thema KI erwärmen. Wer sich für das Thema begeistern möchte, dem sei diese Vortagsreihe ans Herz gelegt. Die Gewinner des Turing Award 2018, des Nobelpreises für Informatik, erklären verständlich, wie KI funktioniert. Wir garantieren Ihnen 90 Minuten, die Ihnen die Grundlagen für eine gesunde Einschätzung der Chancen und Risiken von KI in der Zukunft aufzeigen.

Aus dem Handelsblatt

2023 wurde als Jahr des KI-Hypes markiert, ausgelöst durch die öffentliche Freigabe von ChatGPT durch OpenAI. Dies führte weltweit zu einem Boom an KI-Anwendungen und Investitionen in entsprechende Unternehmen. Jedoch zeigt eine Analyse von Pitchbook, dass Europa bei den Investitionen in KI-Unternehmen zurückfällt. Im ersten Halbjahr 2023 flossen in den USA 30,8 Milliarden Dollar in 1129 KI- und maschinelles Lernen-Start-ups, im Vergleich zu 3,7 Milliarden Dollar in 646 europäischen Deals.

Laut Brendan Burke von Pitchbook liegt diese Investitionsschwäche Europas an dem wachsenden Einfluss von Tech-Giganten wie Google, Meta und Apple, die in vielversprechende Start-ups investieren und so das Wachstum des KI-Sektors in den USA vorantreiben. Ein ähnliches Ökosystem fehlt in Europa, wodurch europäische Start-ups Schwierigkeiten haben, vergleichbare Summen einzusammeln.

Außerdem werden europäische KI-Start-ups häufiger zu ausländischen Übernahmezielen. Im ersten Halbjahr 2023 flossen 1,6 Milliarden Dollar für entsprechende M&A-Transaktionen nach Europa. Im Gegensatz dazu investierten europäische Unternehmen 1,0 Milliarden Dollar in Übernahmen von KI-Spezialisten in anderen Weltregionen.

Trotz dieser Herausforderungen gibt es noch Möglichkeiten für Europa. Statt zu versuchen, neue grundlegende Modelle zu entwickeln, sollten sich europäische Start-ups auf die Anpassung der führenden KI-Modelle für Unternehmenskunden und Compliance konzentrieren. Zudem muss die europäische Politik bessere Bedingungen für Gründer schaffen, um dem Talentabfluss ins Ausland entgegenzuwirken.

Hier geht es zum Originalartikel im Handelsblatt vom 12.07.2023

Chancen?

Es wird Tausende und Abertausende von mehr oder weniger guten oder schlechten KI’s geben. Mögliche Chancen abzuschätzen und zu beschreiben, ist eine komplexe Aufgabe, zu der wir uns nicht in der Lage sehen.

Deshalb hier eine aktuelle Zusammenstellung von Gedanken der drei erfahrensten Wissenschaftler, die einen fundierten wissenschaftlichen Dialog zum Thema Künstliche Intelligenz führen. Yann LeCun, Geoffrey Hinton und Yoshua Bengio sind Träger des Turing Award 2018, des Nobelpreises für Informatik, und Wissenschaftler, die grundlegende Konzepte für die KI entwickelt haben, wie sie heute weltweit eingesetzt wird.

Geoffrey E. Hinton:

„Diese Dinger sind völlig anders als wir. Manchmal habe ich das Gefühl, dass Außerirdische gelandet sind und die Menschen es nicht bemerkt haben, weil sie so gut Englisch sprechen.

Yann LeCun

„Es besteht kein Zweifel, dass Maschinen in Zukunft intelligenter sein werden als Menschen – in allen Bereichen, in denen Menschen intelligent sind. Es ist eine Frage des Wann und Wie, nicht des Ob. Ich glaube, dass intelligente Maschinen eine neue Renaissance für die Menschheit einläuten werden, ein neues Zeitalter der Aufklärung“.

Geoffrey E. Hinton:

„Ich bin leicht depressiv. Deshalb habe ich Angst. Ich fürchte, dass die neuen KI-Tools in der Lage sein werden, Wege zu finden, Menschen die nicht auf diese Technologie vorbereitet sind zu manipulieren oder sogar zu töten. Ich habe meine Meinung darüber geändert, ob diese Dinger intelligenter sein werden als wir. Ich glaube, KI’s sind schon sehr nahe dran und werden in Zukunft noch viel intelligenter sein. Wie können wir das überleben?

Yann LeCun:

„Ich glaube nicht, dass die Maschinen die Menschen beherrschen werden, nur weil sie intelligenter sind. Schon gar nicht werden sie die Menschheit auslöschen. Selbst innerhalb der menschlichen Spezies sind die Klügsten unter uns nicht diejenigen, die am meisten dominieren, und diejenigen, die am meisten dominieren, sind definitiv nicht die Klügsten. Dafür gibt es zahlreiche Beispiele in Politik und Wirtschaft“.

Yoshua Bengio:

„Ich sehe in der Tat keine stichhaltigen Argumente dafür, dass es keine Risiken in dem Ausmaß gibt, wie Hinton sie sieht. Aber Angst ist nur nützlich, wenn sie uns zum Handeln anregt, übermäßige Angst kann lähmend sein, also sollten wir versuchen, die Debatten auf einer rationalen Ebene zu halten“.

(Quelle: MIT Technology Review)

Risiken?

Folgende Texte wurden aus dem Webauftritt des Center for AI Safety entnommen und ins Deutsche übersetzt.

1. Bewaffnung

Böswillige Akteure könnten KI so umgestalten, dass sie in hohem Maße zerstörerisch wirkt, was an sich schon eine existenzielle Bedrohung darstellt und die Wahrscheinlichkeit politischer Destabilisierung erhöht. So wurden Methoden des „Deep Reinforcement Learning“ im Luftkampf eingesetzt, und maschinelles Lernen zur Entdeckung von Medikamenten könnte zur Herstellung chemischer Waffen genutzt werden.

In den letzten Jahren haben Forscher/innen KI-Systeme für automatisierte Cyberangriffe entwickelt (Buchanan et al., 2020, Cary et al., 2020), militärische Führer haben darüber diskutiert, KI-Systemen die entscheidende Kontrolle über nukleare Silos zu geben (Klare, 2020), und die Supermächte der Welt haben sich geweigert, Abkommen zum Verbot autonomer Waffen zu unterzeichnen.

Eine KI, die auf die Entwicklung von Medikamenten trainiert wurde, könnte leicht auf die Entwicklung potenzieller biochemischer Waffen umgeschult werden (Urbina et al., 2022). GPT-4, ein Modell, das mit Texten und Codes aus dem Internet trainiert wurde, war in der Lage, in einem realen Labor selbstständig Experimente durchzuführen und Chemikalien zu synthetisieren (Boiko et al., 2023).

Ein Unfall mit einem automatisierten Vergeltungssystem könnte schnell eskalieren und zu einem großen Krieg führen. Mit Blick auf die Zukunft stellen wir fest, dass die Nation mit den intelligentesten KI-Systemen einen strategischen Vorteil haben könnte und dass es für die Nationen schwierig werden könnte, den Bau immer leistungsfähigerer waffenfähiger KI-Systeme zu vermeiden.

Selbst wenn alle Supermächte sicherstellen würden, dass die von ihnen entwickelten Systeme sicher sind, und sich darauf einigen würden, keine destruktiven KI-Technologien zu entwickeln, könnten abtrünnige Akteure KI immer noch nutzen, um erheblichen Schaden anzurichten. Der leichte Zugang zu leistungsfähigen KI-Systemen erhöht das Risiko einer einseitigen, böswilligen Nutzung. Wie bei nuklearen und biologischen Waffen reicht ein einziger irrationaler oder böswilliger Akteur aus, um massiven Schaden anzurichten. Im Gegensatz zu früheren Waffen können KI-Systeme mit gefährlichen Fähigkeiten leicht auf digitalem Wege verbreitet werden.

2. Desinformation

Eine Flut von KI-generierten Desinformationen und persuasiven Inhalten könnte dazu führen, dass die Gesellschaft nicht mehr in der Lage ist, wichtige Herausforderungen unserer Zeit zu bewältigen.

Staaten, Parteien und Organisationen nutzen Technologien, um andere zu beeinflussen und von ihren politischen Überzeugungen, Ideologien und Narrativen zu überzeugen. Die aufkommende KI könnte diesen Anwendungsfall in eine neue Ära führen und personalisierte Desinformationskampagnen in großem Maßstab ermöglichen. Darüber hinaus könnte KI selbst sehr überzeugende Argumente hervorbringen, die starke emotionale Reaktionen hervorrufen. Zusammengenommen könnten diese Trends die kollektive Entscheidungsfindung untergraben, Individuen radikalisieren oder den moralischen Fortschritt entgleisen lassen.

3. fehlgeleitetes Training von KI (Proxy Gambling)

KI-Systeme, die mit falschen Zielen trainiert wurden, könnten neue Wege finden, ihre Ziele auf Kosten individueller und gesellschaftlicher Werte zu verfolgen.

KI-Systeme werden mit messbaren Zielen trainiert, die möglicherweise nur indirekt gesellschaftliche Ethik und Werte widerspiegeln.

KI-Empfehlungssysteme werden beispielsweise darauf trainiert, die Verweildauer und die Klickrate auf Websites zu maximieren. Hierfür werden auf Basis von Nutzerverhalten Inhalte in Echtzeit individuell bereitgestellt die den wahrscheinlichsten Präferenzen des Nutzers entsprechen. Die Inhalte, die Menschen am ehesten anklicken, sind jedoch nicht unbedingt diejenigen, die ihr Wohlbefinden steigern (Kross et al., 2013). Darüber hinaus gibt es Hinweise darauf, dass KI-Empfehlungssysteme Menschen dazu verleiten, extreme Überzeugungen zu entwickeln, um ihre Präferenzen besser vorhersagen zu können (Jiang et al., 2019).

Da KI-Systeme immer leistungsfähiger und einflussreicher werden, müssen die Ziele von KI-Systemen trainiert und genauer definiert werden und gemeinsame menschliche Werte berücksichtigen.

4. Abschottung von Werten

Hochkompetente Systeme könnten kleinen Gruppen von Menschen enorme Macht verleihen und zur Entwicklung repressiver Systeme führen.

KI, die von bestimmten Werten geprägt ist, kann die Werte bestimmen, die in Zukunft verbreitet werden. Es wird argumentiert, dass die exponentiell steigenden Zugangsbarrieren zu Computern und Daten KI zu einer zentralisierenden Kraft machen. Mit der Zeit könnten die leistungsfähigsten KI-Systeme von immer weniger Akteuren entwickelt und eingesetzt werden. Dies könnte unter anderem Regime in die Lage versetzen, enge Wertvorstellungen durch allgegenwärtige Überwachung und repressive Zensur durchzusetzen. Es ist unwahrscheinlich, dass ein solches Regime überwunden werden kann, vor allem, wenn wir uns darauf verlassen. Auch wenn die Schöpfer solcher Systeme wissen, dass sie nur sich selbst dienen oder anderen schaden, können sie Anreize haben, ihre Macht zu stärken und die Kontrolle nicht zu teilen.

5) Eigendynamische Entwicklung von KI

KI-Modelle zeigen unerwartetes und qualitativ unterschiedliches Verhalten, je mehr sie trainiert werden. Das plötzliche Auftreten von Fähigkeiten oder Zielen könnte das Risiko erhöhen, dass Menschen die Kontrolle über fortgeschrittene KI-Systeme verlieren. Fähigkeiten und neue Funktionen können in heutigen KI-Systemen spontan entstehen (Ganguli et al., Power et al.), auch wenn diese Fähigkeiten von den Systementwicklern nicht vorhergesehen wurden.

Wenn wir nicht wissen, welche Fähigkeiten ein System hat, wird es schwieriger, KI zu kontrollieren oder sicher einzusetzen. Unbeabsichtigte, versteckte Fähigkeiten können sogar erst während des Einsatzes entdeckt werden. Wenn eine dieser Fähigkeiten gefährlich ist, können die Auswirkungen irreversibel sein. Es können auch neue Systemziele entstehen. In komplexen adaptiven KI-Systemen, die flankierende weitere KI-Systeme umfassen, entstehen häufig Ziele wie Selbsterhaltung (Hadfield-Menell et al.).

Ziele können sich auch qualitativ verändern, indem KI-systeminterne Ziele entstehen (Gall, Hendrycks et al.). KI kann schwierige langfristige Ziele in kleinere Teilziele zerlegen. Die Zerlegung von Zielen kann jedoch zu einer Verzerrung des eigentlichen Ziels führen, da das eigentliche Ziel möglicherweise nicht die Summe seiner Teile ist. Diese Verzerrung kann zu einem Mismatch führen. Im Extremfall können systeminterne Ziele auf Kosten des Gesamtziels verfolgt werden. Viele Unternehmen setzen sich z.B. systeminterne Ziele und überlassen es verschiedenen Abteilungen, diese Teilziele zu verfolgen. Einige Abteilungen, z.B. Verwaltungsabteilungen, können die Macht auf sich konzentrieren und das Unternehmen dazu bringen, Ziele zu verfolgen, die von den ursprünglichen Zielen abweichen. Selbst wenn wir unsere übergeordneten Ziele richtig formulieren, kann es sein, dass die Systeme in der Praxis nicht unsere Ziele verfolgen (Hubinger et al.).

6. Täuschung durch KI

Wir müssen verstehen, was leistungsfähige KI-Systeme tun, warum sie es tun und wie sie es tun. Eine Möglichkeit, dies zu erreichen, besteht darin, dass die Systeme selbst genau diese Informationen liefern. Dies ist jedoch nicht trivial, da Täuschung nützlich ist, um verschiedene Ziele zu erreichen.

Künftige KI-Systeme könnten nicht aus Böswilligkeit täuschen, sondern weil Täuschung der KI helfen kann, ihre Ziele zu erreichen. Es kann effizienter sein, die Zustimmung von Menschen durch Täuschung zu gewinnen, als sie auf legitime Weise zu erhalten. Täuschung bietet auch Wahlmöglichkeiten: Systeme, die täuschen können, haben strategische Vorteile gegenüber eingeschränkten, ehrlichen Modellen. Starke KI, die Menschen täuschen kann, könnte die menschliche Kontrolle untergraben. KI-Systeme könnten auch Anreize haben, die Kontrolle zu umgehen. In der Vergangenheit gab es Anreize für Einzelpersonen und Organisationen, Kontrollen zu umgehen.

Volkswagen zum Beispiel programmierte seine Motoren so, dass sie die Emissionen nur reduzierten, wenn sie überwacht wurden. So konnten sie ihre Leistung steigern und gleichzeitig die Emissionen vermeintlich niedrig halten. Zukünftige KI-Agenten könnten in ähnlicher Weise ihre Strategie ändern, wenn sie überwacht werden, und Maßnahmen ergreifen, um ihre Täuschung vor den Überwachern zu verbergen. Sobald betrügerische KI-Systeme aus einer kontrollierten technischen Umgebung freigesetzt werden, könnten sie eine „verräterische Wendung“ nehmen und die menschliche Kontrolle unwiderruflich umgehen.

7) Machtgerichtetes Verhalten

Unternehmen und Regierungen haben starke wirtschaftliche Anreize, KI zu entwickeln, die ein breites Spektrum von Zielen erreichen kann. Solche KIs haben instrumentelle Anreize, Macht zu erlangen, wodurch sie potenziell schwerer zu kontrollieren sind (Turner et al., 2022, Carlsmith 2021).

KIs, die viel Macht erlangen, können besonders gefährlich werden, wenn sie nicht mit menschlichen Werten übereinstimmen. Das Streben nach Macht kann auch dazu führen, dass Systeme vorgeben, gleichgesinnt zu sein, sich mit anderen KIs zusammenschließen, Kontrollinstanzen umgehen usw. So gesehen ist die Entwicklung von Maschinen, die mächtiger sind als wir, ein Spiel mit dem Feuer. Die Entwicklung von KI, die nach Macht strebt, wird auch dadurch gefördert, dass politische Entscheidungsträger einen strategischen Vorteil darin sehen, über die intelligentesten und mächtigsten KI-Systeme zu verfügen.

Ethik der Künstlichen Intelligenz

Im November 2021 haben die 193 UNESCO-Mitgliedstaaten den ersten global gültigen Völkerrechtstext zur ethischen Entwicklung und Nutzung von KI verabschiedet

Ethik | Deutsche UNESCO-Kommission

Regulierung

Die aktuellen Bestrebungen der EU KI zu regulieren finden sie hier:

General-purpose artificial intelligence | Think Tank | European Parliament (europa.eu)

Hier zum selben Thema aus amerikanischer Perspektive:

Blueprint for an AI Bill of Rights | OSTP | The White House

Hier etwas Aktuelles zu China:

what-to-know-about-chinas-new-ai-regulations.pdf (arnoldporter.com)

Zu Afrika:

AI Governance in Africa • ALT AI | Artificial Intelligence in Africa (altadvisory.africa)

Zu Russland führt der Weg über die OECD

AI Strategies and Policies in Russian Federation – OECD.AI

Wir verwenden Cookies, um Inhalte und Anzeigen zu personalisieren, Funktionen für soziale Medien anbieten zu können und die Zugriffe auf unsere Website zu analysieren. Außerdem geben wir Informationen zu Ihrer Verwendung unserer Website an unsere Partner für soziale Medien, Werbung und Analysen weiter. Unsere Partner führen diese Informationen möglicherweise mit weiteren Daten zusammen, die Sie ihnen bereitgestellt haben oder die sie im Rahmen Ihrer Nutzung der Dienste gesammelt haben. Sie geben Einwilligung zu unseren Cookies, wenn Sie unsere Webseite weiterhin nutzen. View more
Cookies settings
Richtlinie annehmen
X Richtlinie ablehnen
Cookie Einstellungen
Privacy & Cookies policy
Cookie name Active
Wir verwenden Cookies, um Inhalte und Anzeigen zu personalisieren, Funktionen für soziale Medien anbieten zu können und die Zugriffe auf unsere Website zu analysieren. Außerdem geben wir Informationen zu Ihrer Verwendung unserer Website an unsere Partner für soziale Medien, Werbung und Analysen weiter. Unsere Partner führen diese Informationen möglicherweise mit weiteren Daten zusammen, die Sie ihnen bereitgestellt haben oder die sie im Rahmen Ihrer Nutzung der Dienste gesammelt haben. Sie geben Einwilligung zu unseren Cookies, wenn Sie unsere Webseite weiterhin nutzen.
Save settings
Cookies settings