WCM

IT-News

News-Startseite
Monatsübersicht
News durchsuchen

WCM Forum


Inhalt und Video




Service

· WCM abonnieren
· Impressum
· WCM Mediadaten 2013

Derzeit Online

Derzeit sind 33 Benutzer online

Managed with Contentteller(R) Business Edition, (C) 2002 - 2009 Esselbach Internet Solutions

Werbung




Rat & Tat Forum

[ zum WCM Forum ]

· Kann gelöscht werden
· Firefox 112.0.1 erschienen
· Firefox 111.0.1 erschienen
· Firefox 110.0.1 erschienen
· Firefox 109.0.1 erschienen
· Firefox 108.0.2 erschienen
· Firefox 107.0.1 erschienen
· Probleme mit autom. Win Update
· RAID1-HD außerhalb des Arrays mit Daten füllen
· Firefox 106.0.5 erschienen
· Drucker/Scanner fürs Home Office
· iphone - USB-Stick Lightning
· Firefox 105.0.3 erschienen
· M1 Mac - wer hat schon?
· Microsoft Edge defekt
· Firefox 104.0.2 erschienen
· Nachtrag: HD-Recorder Kauf
· Norton deinstallieren?
· Gute(!) Kopfhörer an USB-C ?
· Uhrzeit bei Windows 10 falsch
· Firefox 102.0.1esr erschienen
· INTEL NUC11PAHI5 Mini-PC empefehlenswer...
· Sicherheit: BlueTooth - Logitech Unifying - Logi Bolt
· AMD APP nutzen
· Firefox Profildaten von Windows auf Linux transferieren
· Voodoo Störungen im Wlan
· Win10 - Update - Taskleiste
· Firefox 100.0.2 erschienen
· Mein Voxi UKabo 10 Pfund alles ohne Limit
· Daten von alten Spielepc auf neuen Spielpc übertragen

[ zum WCM Forum ]

Willkommen bei WCM

Um alle Funktionen dieser Website nutzen zu können müssen Sie sich Einloggen oder Registrieren. Die Registrierung ist unverbindlich und dauert nur einen Moment.

WCM » News » November 2012 » Künstliche Intelligenz: Forscher gehen Risiken nach

Künstliche Intelligenz: Forscher gehen Risiken nach
Veröffentlicht am 26.11.2012 21:53:24

Cambridge - In der Science Fiction ist spätestens seit der "Terminator"-Reihe klar, dass allzu hoch entwickelte Technologien die Menschheit auslöschen könnten. Ob dem wirklich so ist, wollen nun Wissenschaftler an der University of Cambridge http://www.cam.ac.uk klären. Ein Philosoph, ein Naturwissenschaftler und ein Softwareentwickler haben sich zusammengetan und mit dem Centre for the Study of Existential Risk (CSER)
http://cser.org ein eigenes Forschungszentrum gegründet. Ziel ist es, sich mit potenziell existenziellen Bedrohungen in Bereichen wie Bio- oder Nanotechnologie sowie insbesondere auch Künstlicher Intelligenz (KI) zu befassen.

Schon 1965 hatte der britische Mathematiker Irving John Good in einer Arbeit vorgesagt, dass eine ultra-intelligente Maschine gebaut werden würde, die in einer "Intelligenzexplosion" resultiert. Das werde die letzte Erfindung sein, die der Mensch machen müsse und das Überleben der Menschheit hänge davon ab. Nur wenige Jahre später war Good aber als wissenschaftlicher Berater für ein Filmprojekt tätig, das lang vor "Terminator" die Angst vor wildgewordenen KIs schürte: Stanley Kubricks "2001: Odyssee im Weltraum" mit dem Bordcomputer HAL.

"Irgendwann in diesem oder dem nächsten Jahrhundert könnten wir einen großen Umbruch in der Menschheitsgeschichte erleben, wenn Intelligenz biologischen Beschränkungen entweicht", meint nun Cambridge-Philosophieprofessor Huw Price, einer der CSER-Mitgründer. Gemeint ist die Umsetzung einer Goodschen ultra-intelligenten Maschine in Form einer Artificial General Intelligence (AGI). Price zufolge ist es wichtig, potenzielle Risiken solch einer technologischen Entwicklung zu erforschen. Er beschwört das Bild einer etwaigen Büchse der Pandora.

Der ehemalige Softwareentwickler und Skype-Mitgründer Jaan Tallinn ist ebenfalls einer der Köpfe hinter CSER und spricht gemeinsam mit Price an, dass AGIs, welche die Menschheit in Sachen Intelligenz ausstechen, auch ohne "Terminator"-artige Feinseligkeit zur Gefahr werden könnten. Denn Menschen müssten dann quasi mit einer dominanten Spezies konkurrieren, so der Philosoph unter Verweis auf Gorillas. "Der Grund, dass sie Aussterben, ist nicht aktive Feindseligkeit der Menschen, sondern dass wir die Umwelt auf eine Weise gestalten, die uns zusagt, aber nachteilig für ihr Überleben ist."

Dritter CSER-Mitgründer ist der Kosmologe und Astrophysiker Martin Rees, der schon 2003 prognostiziert hat, dass sich die Menschheit mit 50-prozentigfer Wahrscheinlichkeit bis Ende des Jahrhunderts selbst vernichtet. Die Arbeit am interdisziplinären CSER soll helfen, genau das zu verhindern. Dazu will man als potenzielle Bedrohungen neben hochentwickelten KIs auch Themen wie Risiken der Biotechnologie, die Gefahr eines Atomkriegs oder die Auswirkungen des vom Menschen verursachten Klimawandels studieren.

Digg it! Slashdot Del.icio.us Technorati Fark it! Binklist Furl Newsvine Windows Live Netscape Google Bookmarks Reddit! LinkaGoGo Tailrank Wink Dzone Simpy Spurl Yahoo! MyWeb NetVouz RawSugar Smarking Scuttle Magnolia BlogMarks Nowpublic FeedMeLinks Wists Onlywire Connotia Shadows Co.mments
( 0 Kommentar(e) | Artikel ausdrucken )

« Analoger Chip "Spikey" simuliert Gehirn · Künstliche Intelligenz: Forscher gehen Risiken nach · Waffen aus 3D-Drucker noch dieses Jahr »

WCM » News » November 2012 » Künstliche Intelligenz: Forscher gehen Risiken nach
© 2013 Publishing Team GmbH