Ich hab den Artikel (noch) nicht gelesen, mein Statement ist aber:
KI kann es nicht geben , denn es würde bedeuten, das sich eine Maschine Verhalten und Wissen eigenmächtig aneignen könnte, um gegebenfalls richtig zu reagieren.
1.) Wäre das von der Programmierung = Software abhängig, die wiederum von einem Menschen stammt.
2.) Wäre ohne Software eine Interaktion gar nicht möglich.
3.) kann eine Maschine nicht selbständig Software entwickeln, bzw sich aneignen wie der Mensch(=klug aber nicht intelligent)und dies im richtigen Moment anwenden, da die (richtige) Entscheidungsfähigkeit fehlt, welche aber für eine (künstliche) Intelligenz vonnöten wäre.
Beispiel:
MS: Wollen Sie die Datei wirklich löschen? Ja ; Nein ; Abbrechen?
oder
Defragmentierung:
Ihre Festplatte ist zu 60% defragmentiert! Wollen sie wirklich....?
mfg Excal
|