Der Science-Fiction-Realitätsabgleich (TS001)

Wie gestern schon einmal gesagt, mussten wir die geplante Folge der Collaborativerockers leider auf nächste Woche Sonntag verschieben. Den geplanten Sendeplatz auf moepmoep.org wollte ich aber nicht ungenutzt verstreichen lassen und habe sehr kurzfristig und ohne große Vorbereitung einfach die Pilotfolge für den hier schon einmal angekündigten neuen Podcast aufgenommen. Glücklicherweise musste ich nicht allein senden, sondern konnte auf @riotburnz “zurückgreifen, der sich dankbarerweise nicht minder kurzfristig bereiterklärt hat bei dem Experiment mitzuwirken. Und so haben wir ein Thema aufgegriffen, über das wir ohnehin etwas machen wollten, nämlich den Abgleich von Science-Fiction und Realität. Wie schon die Space-Fiction-Folge bei den CR gezeigt hat, ist das Thema extrem umfangreich und an der einen oder anderen Stelle haben wir uns dank der nahezu nicht vorhandenen Vorbereitungszeit vielleicht auch etwas um Kopf und Kragen geredet. Sei’s drum. Ich denke uns hat’s Spaß gemacht und ich hoffe auch Ihr könnt dem Ganzen etwas abgewinnen. Viel Spaß!

[podlove-contributors]

Hier ein kurzer Themenüberblick:

Bild: Adjusting Time Circuits on my iPhone by JD Hancock on flickr.com

roboter sind riskant…vielleicht…wenn ja, was tun?

gegen mordende, oder zumindest amoklaufende roboter versichern? ist das eine passable lösung zur absicherung gegen “aus den fugen geratene technologie”, wie dieser klassiker des old-glory-insurance-werbespots mit Sam Waterstone suggeriert?

via youtube

oder sind asimov‘s robotergesetze genügend, um einen solchen rahmen an sicherheit zu schaffen in dem wir uns unbedenklich mit robotern gemeinsam bewegen können?

  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

die schwäche dieser gesetze dürfte in der art ihrer fomulierung liegen, die offensichtlich sprachlich erfolgt ist. sind aber künstliche intelligenzen in der lage einen zugang zu dieser art von codierung zu erlangen, der so garantiert, dass sie daraus auch handlungsvorgaben ableiten?

oder ist es die überwachung der robotik-wissenschaftler untereinander, sozusagen das “open-source auf die finger schauen” damit kein stück schadhafter coder verwendung findet?

am ende bleibt uns womöglich doch nur die versicherung gegen roboter außer kontrolle?

dieser blogpost ist noch nicht zu ende gedacht…