×

We use cookies to help make LingQ better. By visiting the site, you agree to our cookie policy.

image

Video lessons from YouTube, Künstliche Intelligenz und Roboter | Die Zukunft oder unser Untergang?

Künstliche Intelligenz und Roboter | Die Zukunft oder unser Untergang?

Dass Künstliche Intelligenz und Roboter unsere Arbeitswelt auf den Kopf stellen werden, ist

heute schon ziemlich gut absehbar und deshalb beschäftigen wir uns in dieser Folge

SOundSO gesehen genau damit.

Wir fragen uns aber auch, ob KIs und Roboter vielleicht irgendwann die Weltherrschaft an

sich reißen werden.

Robotik und Künstliche Intelligenz sind zwei Forschungsfelder, die sich rasant weiterentwickeln

und große Auswirkungen auf unseren Arbeitsmarkt haben könnten, denn ihre Entwicklungen stehen

in Konkurrenz zur menschlichen Arbeitskraft.

Die Roboter übernehmen körperliche Arbeit und KIs das Denken.

Über Automatisierung und ihre Folgen für den Arbeitsmarkt haben wir ja in der ersten

Folge schon gesprochen und die findet ihr wie alle anderen Folgen auch in der Infobox

verlinkt.

Heute wollen wir in Bezug auf Roboter und KIs noch ein bisschen ins Detail gehen.

Fangen wir mit Robotern an: Die eignen sich natürlich besonders gut für repetitive Aufgaben

oder solche, bei denen große Präzision oder große Stärke erforderlich ist.

Ein klassisches Beispiel ist Fließbandarbeit.

Viel schwieriger wird es, wenn Roboter Aufgaben übernehmen sollen, bei denen Spontanität

und Flexibilität gefragt sind.

Einen Bolzen in die immer gleiche Stelle in eine Karosserie zu schweißen, ist das eine,

eine Pipeline durch die eben nicht genormte Natur zu verlegen und zu schweißen schon

schwieriger.

Aber es gibt durchaus schon Roboter, die Arbeiten außerhalb der genormten Umgebung einer Fabrik

übernehmen können: Zum Beispiel SAM , das steht für Semi-Automated Mason, also

Halbautomatischer Maurer.

Der kann eine gerade Mauer bauen, indem er sich an einem Fixpunkt in der Umgebung kalibriert,

auch wenn der Untergrund, auf dem er sich bewegt, nicht 100 prozentig gerade ist.

Aber auch SAM kommt nicht aus, ohne dass Menschen um ihn herum arbeiten und wenn es ein bisschen

komplizierter wird als eine einfache gerade Mauer zu bauen, dann ist er auch überfordert.

Hier geht es also eher darum, Menschen bei ihren einfachen Arbeiten zu unterstützen.

Die Vorstellungen, welche Aufgaben Roboter in Zukunft übernehmen können, gehen aber über

einfache motorische Aufgaben hinaus.

Vor allem in der Verbindung zwischen Roboter und KI in Form von Androiden, also Robotern

die aussehen wie Menschen, sehen viele das Potenzial, menschliche Arbeitskräfte zu ersetzen.

Ich meine zum Beispiel Pflegeroboter.

Aber bei denen Stellen sich ja noch mal ganz andere Fragen, wie The Knight Returns kommentiert:

“[...] Welche Funktion soll KI (Künstliche Intelligenz ) in der Zukunft übernehmen ,sprich

nur Tätigkeiten die unseren Alltag erleichtern oder soll es auch als eine Art des Ersatzes

zwischenmenschlicher Beziehungen dienen. [...]”

Das ist nämlich die Frage: Kann ein Roboter mit künstlicher Intelligenz einen empathischen

Menschen ersetzen?

Unser Zuschauer Benjamin Seibel hat da so seine Zweifel:

“Ich hatte durch einen Versuch [...] mal mit einem hotelroboter „Kontakt“

Dort musste man auf englisch in ein Hotel einchecken und der Roboter hat die Arbeit,

die normalerweise die Rezeption übernimmt, übernommen.

In diesem Fall hat das Recht gut funktioniert (was mich echt überrascht hat).

Allerdings muss ich sagen dass einem da ein wenig die Menschlichkeit gefehlt hat.[...]”

Vielleicht ist das Ganze aber auch nur in Kombination gut.

Bleiben wir beim Beispiel Pflege.

Wenn zum Beispiel Pflegeroboter den Pflegekräften alle Arbeiten abnehmen würden, die nicht

direkt mit den Patienten zu tun haben, könnten die sich auf den zwischenmenschlichen Kontakt

konzentrieren.

Roboter sind ja irgendwie noch greifbar und etwas, womit sich viele Menschen noch anfreunden

können - Staubsaugerroboter haben ja zum Beispiel viele.

Künstliche Intelligenzen - da sind viele Menschen skeptischer.

Steinchen schreibt dazu zum Beispiel:

“Robotik finde ich sinnvoll, weil oft effizienter und Arbeiter entlastend.

KI sehe ich eher skeptisch.

[...] Ich möchte mich aber nicht damit anfreunden, dass Menschen mehr Entscheidungen als nötig

von der KI abgenommen werden.

Sonst halte ich die Gefahr für zu groß, dass sich eine KI verselbständigen kann und

nicht nachvollziehbare Entscheidungen mit nicht vorhersehbaren Auswirkungen trifft.

Im kleinen konnte man das ja zum Teil schon beim YouTube-Algorithmus beobachten, bei dem

scheinbar selbst YouTube nicht genau wusste, warum er so sortiert, wie er sortiert.”

Um diesen Punkt besser zu verstehen, ist eine Unterscheidung wichtig - die zwischen schwacher

und starker KI.

Schwache KI ist in der Lage Entscheidungen in einem bestimmten Aufgabenbereich zu erledigen,

zum Beispiel einen Weg zu finden oder Dinge zu sortieren.

Starke KI dagegen ähnelt viel eher dem menschlichen Denken, ist in der Lage zu lernen und logische

Schlüsse auf Grundlage großer Datenmengen zu schließen.

In diesem Bereich hat sich in den letzten Jahren extrem viel getan.

Nehmen wir beispielsweise machine learning, bei dem eine KI Muster in riesigen Datenmengen

erkennt und dabei lernt zu abstrahieren und zu verallgemeinern.

Oder die Entwicklung künstlicher neuronaler Netze, die sich an der Funktionsweise des

menschlichen Gehirns orientieren.

Das kann man positiv finden wie honestee:

“Dies ist meiner Meinung nach das wichtigste was der Menschheit passieren kann.

All unser Wissen haben wir daraus dass Menschen lernen und dieses Wissen weitergeben.

Dieses Wissen zu speichern und daraus Schlussfolgerungen zu ziehen würde vieles verbessern.

Nichts desto trotz braucht man meistens die menschliche Kontrolle.

Wie z.B einem Arzt der mit einem zur Diagnosestellung fähigem Gerät arbeitet.”

Wenn ihr jetzt denkt: Diagnose von Krankheiten durch künstliche Intelligenzen, das ist doch Zukunftsmusik.

Ist es nicht.

Die KI Watson von IBM optimiert nicht nur die Arbeitsabläufe großer Unternehmen, sie

kann auch Krankheiten diagnostizieren und Therapieempfehlungen aussprechen und ist dabei

sogar besser als ihre menschlichen Konkurrenten, das zeigte ein Test der North Carolina School of Medicine.

Das muss einen ja eigentlich auch nicht wundern.

Dass Maschinen in bestimmten Bereichen besser und schneller sind als Menschen, ist ja schon

lange so - es macht uns zum Beispiel weder Angst noch stutzig, dass ein Taschenrechner

schneller rechnet als wir das können.

Und es ist auch nicht verwunderlich, dass Watson, dem alle Studien und Daten zu Krankheiten

in der Sekunde der Entscheidung vorliegen, besser darin ist, eine Entscheidung zu treffen,

die all diese Daten berücksichtigt.

Fraglich ist aber, ob es Aspekte in diesen Entscheidungsprozessen gibt, die sich nicht

so einfach ableiten lassen und für die ein Arzt doch besser geeignet ist, weil sie zum

Beispiel Empathie voraussetzen oder weil es moralische Aspekte zu berücksichtigen gilt.

Jetzt könnte man fragen: Kann man Moralität nicht einfach einprogrammieren?

Naja, dafür müssten sich die Menschen erst mal auf ethische Basiswerte einigen und das

schaffen sie ja sonst auch nicht.

Je nachdem, ob man nach utilitaristischen oder deontologischen Kriterien entscheidet,

kommt man zu sehr unterschiedlichen Ergebnissen.

Wenn ihr jetzt gar nicht versteht, was ich gemeint habe, dann guckt mal in die Infocard.

Von diesen Problemen habt ihr vielleicht schon mal im Kontext des autonomen Fahrens gehört,

wo man zum Beispiel entscheiden muss: Wen soll das Auto im Falle eines Unfalls schützen:

Immer den Fahrer oder möglichst viele Menschen oder bestimmte Menschen zuerst – wie zum

Beispiel Kinder?

Das sind alles Probleme, die nicht so einfach zu beantworten sind.

Und damit fängt das ganze Problem erst an.

Man muss sich ja zudem überlegen: Wer ist für die Entscheidungen der KI am Ende verantwortlich?

Der, der sie benutzt, oder der, der sie programmiert hat oder vielleicht die KI selbst und was

würde das dann bedeuten?

Auch wenn oder gerade weil KIs wie Watson Entscheidungen fällen können, die auf einer

sehr breiten Wissensbasis stehen, müssen wir aufpassen, uns nicht zu sehr auf sie zu

verlassen, wie unser Zuschauer Jan B. sagt: [...] Umso mehr KIs eingesetzt werden und

umso mächtiger sie werden, umso seltener werden wir fragen, ob sie das Richtige machen.

Wir Menschen werden unser Leben freiwillig von Maschinen bestimmen lassen, weil wir denken,

sie wissen es schon besser als wir. grusel [...]

Ein bisschen liegt das ja in der Natur der Sache.

Wir lassen bestimmte Dinge von KIs oder Algorithmen entscheiden, weil die zu berücksichtigende

Datenmenge so groß ist, dass ein Mensch sie alleine nicht erfassen kann und dem Ergebnis

müssen wir dann in gewisser Weise vertrauen – so wie wir unserem Taschenrechner vertrauen,

dass das Ergebnis, das er ausspuckt, das richtige ist.

Beim Taschenrechner kann man aber immerhin noch nachrechnen, ob das Ergebnis stimmt und

wir wissen auch, wie der Taschenrechner auf das Ergebnis gekommen ist.

Algorithmen und Deeplerningverfaren können so komplex werden, dass sie selbst für ihre

Programmierer nicht mehr nachvollziehbar sind und am Ende niemand weiß, wie das Ergebnis

wirklich zustande gekommen ist.

Und man darf dabei nicht vergessen, dass Algorithmen immer nur so gut sind, wie die Daten, mit

denen man sie füttert und darüber hinaus muss man immer noch im Auge behalten, ob die

Schlüsse, die ein Algorithmus ausspuckt, wirklich die Richtigen sind.

Nehmen wir das Beispiel einer KI, die festlegen soll, wo wie viele Einsatzkräfte der Polizei

hingeschickt werden müssen.

Dafür wird man sie sicherlich mit den Daten füttern, die anzeigen, wo in der Vergangenheit

Straftaten begangen wurden und die KI und der Algorithmus wird die Polizeikräfte dann

dahin verteilen, wo die meisten dieser Straftaten begangen wurden.

Das klingt erstmal logisch.

Dabei entsteht aber ein Problem: Die Daten aus der Vergangenheit sind ja keineswegs neutral,

denn sie beruhen ja auf dem Kontrollverhalten der Polizei.

Das heißt dort, wo es früher schon mehr Polizei gegeben hat, sind logischerweise mehr

Straftaten entdeckt worden, was gleichzeitig nicht heißt, dass an diesem Ort mehr Straftaten

begangen wurden als woanders.

Wenn der Algorithmus diese Daten nun einfach übernimmt, dann kommt dabei 1. keine neutrale

Empfehlung heraus, selbst wenn eine kühle neutrale KI das ganze entscheidet und 2. wird

das Problem sogar einfach reproduziert und verstärkt, denn mit jedem weiteren Polizisten

an einem Ort werden ja weitere Straftaten entdeckt und dadurch wird das ganze nur verstärkt.

Das gilt für KIs und Algorithmen, die in einem abgesteckten Rahmen operieren.

KIs, die wirklich selbstständig lernen, könnten sich aus diesem Rahmen herauslösen und zu

ganz eigenen Schlüssen kommen, das wiederum könnte uns aus anderen Gründen aber auch

nicht gefallen.

Diesen Moment, also den, wenn sich Maschinen selbstständig weiterentwickeln und verbessern

können, nennt man technologische Singularität.

Man geht davon aus, dass sich ab diesem Zeitpunkt der technologische Fortschritt derart beschleunigen

wird, dass er für den Menschen in seinen Folgen nicht mehr nachvollziehbar ist.

Die Vorstellung, dass KIs Entscheidungen treffen könnten, die sich gegen den Menschen richten

und auch die Möglichkeit haben, diese Entscheidungen durchzusetzen, kann einem ganz schön Angst

machen.

Und mit dieser Angst ist man in guter Gesellschaft.

Elon Musk, der ja nicht gerade als technologiefeindlich bekannt ist, hat seine Sorge vor der Entwicklung

von künstlichen Intelligenzen zum Ausdruck gebracht und auch Steven Hawking warnte davor,

ihre Gefahren nicht zu unterschätzen.

Ihr seht, um einen breiten Dialog über den Umgang mit KIs werden wir nicht herumkommen.

Und sofern KIs nicht die Weltherrschaft an sich reißen, werden diese Technologien unsere

Gesellschaft vor ganz neue Herausforderungen stellen.

Welche genau und ob zum Beispiel das bedingungslose Grundeinkommen eine Antwort auf die Probleme

sein könnte, diskutieren wir in der nächsten Folge.

Schreibt mir gerne schonmal eure Gedanken dazu, dann kann ich euren Input in die nächste

Folge mitnehmen.

Was denkt ihr?

Wie wird unser Zusammenleben mit KIs und Robotern aussehen und wie wird sich unsere Gesellschaft

anpassen müssen?

Diskutiert in den Comments, aber bitte ohne Spambots!

Ich bin der Ben, das war SOundSO gesehen.

Learn languages from TV shows, movies, news, articles and more! Try LingQ for FREE