Zum Inhalt springen
IGNORED

Zukunft der Foren... ( KI auf dem Vormarsch)


Empfohlene Beiträge

Geschrieben
vor 9 Minuten schrieb mwe:

 

Im welchem Sinn meinst Du deterministisch? ... Ein neuronales Netz ist ein gerichteter azyklischer Graph, in dem aus jedem Knoten eine Linearkombination seiner Eingaben rauskommt. Völlig deterministisch. Die Kunst besteht darin, die richtigen Kantengewichtungen zu ermitteln. Nach der Trainingsphase bleiben die aber konstant.

 

Bei nicht-deterministischen Systemen ist jedesmal eine Ausgabe aus einer Menge von Ausgaben möglich (dito für den Folgezustand).

 

Bin kein Experte, aber KI umfasst ja vieles, inklusive Machine Learnung und Deep Learning. Letzters ist imho nicht deterministisch, aber das Feld, wo die KI sich "selbständig macht". Also wenn ich ein Netz trainiere, mit den Resultaten (den gewichteten Kanten) zu frieden bin, mache ich einen Snapshot und der ist dann deterministisch. Wenn ich z.B. ein Netz erstelle, was mir in einem gewissen Umfeld nach Aktenlage Gerichtsurteile generieren soll. Dann kann ich X% der Prozesse vor Gericht einsparen und Richter, Anwälte, etc. entlassen.

Aber ein Netz, was selbständig alle Geriuchtsverfahren über Deep Learning durchführt, wäre es nicht.

Deshalb meine Aussage, dass man damit viele Jobs perspektivisch ersetzen kann, aber im jeweiligen Feld wird es immer "überlebende" geben, die hoffentlich auch die Experten in ihrem Feld sind :)

 

Corect me if I'm wrong.

Geschrieben (bearbeitet)

Es ist bei komplexen neuronalen Netzen schwer, sie als White-Box zu verstehen (also durch Ankucken des inneren Aufbaus verstehen, was genau das Ding macht). Bei den Algorithmen, mit denen man es sonst meistens in der Informatik zu tun hat, geht das besser.

 

Man trainiert ein neuronales Netz anhand vieler Beispiele, mittels Back-Propagation werden die Kantengewichte justiert (war jedenfalls damals so, weiß nicht, ob immer noch). Aber ob nach beendetem Training für alle möglichen Eingaben die gewünschte Ausgabe rauskommt, ist im Allgemeinen nicht formal zu beweisen. So mein letzter Wissensstand. Man trainiert es halt mit "genügend" vielen Eingaben, bis man zufrieden ist mit dem Verhalten. Die Korrektheit für alle Eingaben ist aber nicht formal bewiesen wie es bei anderen Arten von Algorithmen möglich ist (z. B. Sortieralgorithmen).

 

Man kann nachträglich analysieren, bei welchen Eingaben ein Neuron des Netzes wie feuert und welches Konzept es somit wohl repräsentiert. Aber das ist nicht offensichtlich, sondern auch wieder viel Ausprobieren und Vermuten.

 

Insofern bleibt ein neuronales Netz auch für den KI-Experten ziemlich mysteriös. Vielleicht meintest Du das mit "nicht deterministisch" (aber in der Informatik ist der Begriff halt anders definiert).

 

Aber ich will jetzt hier nicht den modernen KI-Experten spielen. Was ich hier schreibe, sind großteils nur Erinnerungen aus dem Informatik-Studium, die mind. 25 Jahre alt sind. In der beruflichen Praxis ist KI erst seit kurzem relevant. Sie wird jetzt regelrecht zu einem Hype gemacht. In den 25 Jahren davor ist sie mir im Beruf als Informatiker kaum begegnet. Eine wichtige Ausnahme war damals mal Touren-Optimierung mit weiteren Optimierungsparametern für ein großes Unternehmen, da verwendete ich Methoden und Algorithmen aus der KI (aber ohne neuronale Netze).

  

vor einer Stunde schrieb David K:

Deshalb meine Aussage, dass man damit viele Jobs perspektivisch ersetzen kann, aber im jeweiligen Feld wird es immer "überlebende" geben, die hoffentlich auch die Experten in ihrem Feld sind

 

KI sehe ich als Werkzeug - wie einen Schraubendreher und wie eine Pistole. Mit dem Schraubendreher kann man jemand erstechen. Mit der Pistole kann man sportlich viel Spaß haben, ohne dass jemand geschädigt wird. Es kommt vor allem darauf an, was die Menschen damit machen. Ich kann mir KI schon als nützliches Werkzeug vorstellen für Menschen vieler verschiedenartiger Berufe. Einige Jobs kann man damit sogar ganz ersetzen, wie es mit Computern ja schon lange gemacht wird. Das sollte aber so geschehen, dass die Menschen dabei glücklicher werden. Leider achtet keiner darauf.

 

In einem schönen Papier stand mal: "Der Sinn der Gesellschaft ist das allgemeine Glück" (frühere franz. Verfassung). Wäre schön, würde das mal endlich so gelebt werden. Ich glaube, die Schweden achten bisschen mehr darauf als die Deutschen.

Bearbeitet von mwe
Geschrieben (bearbeitet)

Nachtrag dazu:

 

vor 2 Stunden schrieb mwe:

Ein neuronales Netz ist ein gerichteter azyklischer Graph, in dem aus jedem Knoten ("künstliches Neuron") eine Linearkombination seiner Eingaben rauskommt.

 

Ferner ist in in einem Neuron eine Aktivierungsfunktion hinter die Linearkombination geschaltet. Das habe ich vergessen zu schreiben (steht so auch im aktuellen Wiki-Artikel zu künstlichen Neuronen). Ein neuronales Netz bleibt aber auch damit deterministisch.

 

vor 2 Stunden schrieb joker_ch:

[Blöd-Zeitung ersetzt Mitarbeiter durch KI]

 

Dazu ein "Gefällt mir" aus Gründen, die ich da schon nannte:

 

Bearbeitet von mwe
Geschrieben
2 hours ago, David K said:

Wenn ich z.B. ein Netz erstelle, was mir in einem gewissen Umfeld nach Aktenlage Gerichtsurteile generieren soll. Dann kann ich X% der Prozesse vor Gericht einsparen und Richter, Anwälte, etc. entlassen.

 

Eher schwierig. Man will ja eigentlich schon gerne wissen, dass nach Regeln entschieden wird. Da ist dann für Streitigkeiten eher sinnvoll, statt eines schon dem Funktionsprinzip nach unstrukturierten Systems, nicht weniger, sondern mehr Struktur in die Sache reinzubringen. Ein Beispiel dafür ist so etwas wie ein Mahnbescheid, wo das Verfahren und die Entscheidung gerade dadurch vereinfacht werden, dass weder Richter noch Maschine interpretieren wenn kein Widerspruch kommt, sondern einfach nach Regeln vorgehen, die davon abhängen, welches Kästchen angekreuzt ist. Wenn aber die Gegenseite widerspricht, dann hat sie natürlich einen Anspruch darauf, von einem Richter angehört zu werden.

 

Die Anwendung neuronaler Netze in der Juristerei dürfte eher im Vorfeld liegen. Wenn man z.B. Millionen von Aktenseiten Prozessmaterial hat, dann kann ein Computer da schon nützlich sein, um so schnell wie möglich relevante Teile zu finden. Wenn er dabei auch ein paar irrelevante Teile ausspuckt ist das nicht schlimm, wenn er relevante Teile nicht findet vielleicht schon, aber das kann auch beim Durchforsten durch Menschen passieren. Ein Computer kann auch geeignet sein, z.B. Präzedenzfälle zu finden, die zu einem Argument passen. Also Dinge, bei denen es vorteilhaft ist, schnell mit riesigen Datenmengen umgehen zu können, es aber nicht so schlimm ist, wenn sich das System auch mal in absurder Weise irrt.

 

Eine andere Anwendung wäre ein elektronischer Mediator, der mit Eselsgeduld sich die Beschwerden zweier Seiten in einem Nachbarschaftsstreit um einen Maschendrahtzaun oder was auch immer anhört, so viele Argumente und Beweismittel, wie sie machen wollen, und ihnen dann einen Vorschlag zur Güte macht und wieder mit Eselsgeduld erklärt. Weil es eben nur ein Mediator wäre und kein Richter macht es auch da nichts aus, wenn das System die Sache vielleicht nicht wirklich durchdacht versteht.

Geschrieben (bearbeitet)
vor 1 Stunde schrieb Proud NRA Member:

Die Anwendung neuronaler Netze in der Juristerei dürfte eher im Vorfeld liegen. Wenn man z.B. Millionen von Aktenseiten Prozessmaterial hat, dann kann ein Computer da schon nützlich sein, um so schnell wie möglich relevante Teile zu finden. Wenn er dabei auch ein paar irrelevante Teile ausspuckt ist das nicht schlimm, wenn er relevante Teile nicht findet vielleicht schon, aber das kann auch beim Durchforsten durch Menschen passieren

 

Ja, ich kenne auch aus meiner Berufspraxis Beispiele aufwändiger IT-Systeme, die genau das machen: Aus gewaltigen Fallmengen relevante Fälle rausfiltern, die dann von Menschen weiterbearbeitet werden. Ohne Computerhilfe wären Menschen mit der riesigen Menge aller Fälle völlig überfordert. Die kleine Teilmenge der relevanten Fälle ist für Menschen handhabbar. Diese Systeme waren aber ohne KI sondern funktionierten genau nach von Menschen definierten Regeln. An solchen Systemen im XXL-Format habe ich jahrelang mitgestrickt.

 

vor 1 Stunde schrieb Proud NRA Member:

Eselsgeduld

 

Die haben Computer auf jeden Fall, das kann ich bestätigen. Aber das sie erfolgreich zwischen verstrittenen Menschen vermitteln konnten, dafür kenne ich kein Beispiel. Dafür fehlt mir im Moment auch die Fantasie, wie man das mit KI machen könnte.

Bearbeitet von mwe
Geschrieben (bearbeitet)

Sind die aktuellen KI-Systeme tatsächlich noch deterministisch (bestimmbar, vorhersagbar), wenn selbst die Entwickler zugeben, dass sie nicht mehr nachvollziehen können, wie ihre KI auf ein bestimmtes Ergebnis gekommen ist? Oder ist es nur eine Sache des zu tätigenden Aufwands?

 

Kann eine KI, die selbstlernend und selbstprogrammierend ist, von außen überhaupt noch durchdrungen und überwacht werden?

 

Grundsätzlich basiert eine KI bzw. das Programm oder zugrundeliegende Neuronale Netz doch immer noch auf Logik und Mathematik? Und steht nicht unter dem Einfluss von Hormonen und Enzymen! Wenn also plötzlich ein Ergebnis produziert wird, das nicht den Erwartungen entspricht, bzw. dessen Zustandekommen nicht erklärbar ist, muss man doch entweder davon ausgehen, dass

 

  • es in der Programmlogik/Training Fehler gibt
  • die KI selbständig Regeln/Gewichtungen geändert oder neue Regeln/Gewichtungen eingeführt hat (was sie ja soll und darf), 

 

die dem Entwickler entgangen sind, bzw. nicht nachvollzogen werden können.

Spätestens ab dem Zeitpunkt, zu dem die KI sich selbst trainiert, kann es doch zu Ergebnissen kommen, die von uns nicht mehr nachvollzogen werden?

Beispiel: Zwei identische initiale KI-Systeme laufen zum gleichen Zeitpunkt los. Sie haben Zugriff auf genau die gleichen Datenbestände und Regeln und beginnen zu lernen. Trotzdem ist anzunehmen, dass sie sich ab einem Zeitpunkt auseinanderentwickeln werden, weil z.B. das eine KI-System eine Google-Abfrage macht mit dem Ergebnis X und das Zweite – etwas später – mit dem Ergebnis Y. Die Abweichung liegt in diesem Fall also im unterschiedlichen Ergebnis aufgrund der unterschiedlichen zeitlichen Abfrage und der internen Google-Logik, mit welcher Priorität Ergebnisse angezeigt werden.

 

Nun lernt die erste KI (weil das gerade aktuell ist), dass ein Schiff mit hunderten Migranten im Mittelmeer mit halbherzigen Methoden aus Seenot gerettet wird. Die zweite KI bekommt aufgrund der späteren Abfrage noch die Info, dass ein U-Boot mit einem Milliardär an Bord eine Rettungsaktion auslöst, an der mehrere Nationen beteiligt sind sowie modernste Militärtechnik eingesetzt wird. Während die erste KI nun vielleicht für eine weitere Havarie eines Migrantenschiffes alles zur Rettung in Bewegung setzen würde, würde die Zweite aufgrund des Gelernten erstmal prüfen, ob auf dem Migrantenkahn (oder einer AIDA mit ausschließlich Mittelklassedeutschen) ein Miliardär ist, und erst nach positiver Information die Kavallerie in Bewegung setzen.

 

Die Entscheidungslage ist doch primär abhängig vom jeweiligen Lernzustand einer KI, und kann sich dauernd ändern, weil sie ja dazu lernt und damit ständig die Regeln anpassen muss. Ein Snapshot zu einem bestimmten Zeitpunkt ist deshalb doch schon kurze Zeit später nicht mehr aussagekräftig und nicht mehr deterministisch. Vielleicht hören wir ja bald von einer KI den Satz „Was geht mich mein dummes Geschwätz von gestern an?“.

 

Für das angeführte Beispiel mit den Gerichtsurteilen halte ich es für sinnvoll, wenn eine KI als Richter viele Zwischentöne aufnimmt und weiter dazulernt. Sonst haben wir Urteile, die immer identisch sind, und "weiche" Aspekte außen vorgelassen werden, die ein menschlicher Richter in sein Urteil einbeziehen würde.

 

Bearbeitet von ACR
typos
Geschrieben (bearbeitet)
vor einer Stunde schrieb ACR:

Sind die aktuellen KI-Systeme tatsächlich noch deterministisch (bestimmbar, vorhersagbar), wenn selbst die Entwickler zugeben, dass sie nicht mehr nachvollziehen können, wie ihre KI auf ein bestimmtes Ergebnis gekommen ist?

 

In dem Sinn, wie der Begriff in der Informatik gebraucht wird und wie ich es oben beschrieb, sind sie deterministisch (soweit ich noch in dem Thema drinstecke). Da steht was zum Determinismus-Begriff in der Informatik: de.wikipedia.org/wiki/Determinismus_(Algorithmus)

 

Aber wenn man sich ein komplexes neuronales Netz ansieht, ist das kaum durch Ankucken seiner Struktur zu verstehen. Man weiß nur darüber, wie es sich bei den bisherigen Eingaben verhalten hat. Und bei der gleichen Eingabenfolge würde es sich wieder so verhalten (wenn man auch den Zustand resettet). Bei neuen Eingaben wird es sich wahrscheinlich so verhalten, wie man das aufgrund der Trainingsdaten beabsichtigt hat. Aber exakt und sicher beweisen kann man es nicht (bzw. nur durch Ausprobieren der bisher nicht vorgekommenen Eingabe).

 

Es gibt aber auch deutlich einfachere KI-Systeme, ich meine deutlich einfacher als komplexe neuronale Netze: Klassiker wie Minimax für Schachspielen, ID3 für das Lernen von Entscheidungsbäumen und die einfachen Suchalgorithmen wie DFS/BFS. Die sind viel leichter als White-Box zu verstehen und ihr Verhalten ist vorhersagbar.

 

PS:

Es gibt in der Informatik schon länger den Ansatz der Algorithmen, die wahrscheinlich zumindest ungefähr korrekt lernen (PAC-Learning, "probably approximately correct"). Da kann man die genaue Wahrscheinlichkeit und Toleranz sogar mathematisch beweisen. Bei komplexen neuronalen Netzen geht meines Wissens derzeit nicht mal das (PAC zu beweisen).

 

Die Algorithmen für das Konstruieren eines künstlichen neuronalen Netzwerks auf Basis von Trainingsdaten sind nicht so schwer (Backpropagation-Algorithmus). Aber ein neuronales Netz muss eben trainiert werden. Und wenn das komplexe Trainingsdaten benötigt, dann wird auch das neuronale Netz komplex.

Bearbeitet von mwe
Geschrieben (bearbeitet)
vor 3 Stunden schrieb ACR:

Nun lernt die erste KI (weil das gerade aktuell ist), dass ein Schiff mit hunderten Migranten im Mittelmeer mit halbherzigen Methoden aus Seenot gerettet wird. Die zweite KI bekommt aufgrund der späteren Abfrage noch die Info, dass ein U-Boot mit einem Milliardär an Bord eine Rettungsaktion auslöst, an der mehrere Nationen beteiligt sind sowie modernste Militärtechnik eingesetzt wird. Während die erste KI nun vielleicht für eine weitere Havarie eines Migrantenschiffes alles zur Rettung in Bewegung setzen würde, würde die Zweite aufgrund des Gelernten erstmal prüfen, ob auf dem Migrantenkahn (oder einer AIDA mit ausschließlich Mittelklassedeutschen) ein Miliardär ist, und erst nach positiver Information die Kavallerie in Bewegung setzen.

 

Um solche einfachen Entscheidungsbäume zu lernen, dafür reicht schon das genannte ID3. Man muss allerdings bei ID3 die Attribute, die relevant sind für die Entscheidung, selber (als KI-Programmierer bzw. KI-Trainer) definieren. In Deinem Beispiel sind Attribute:

- Anwesenheit eines Milliardärs an Bord

- (evtl. weitere Attribute, die für die Rettungsentscheidung relevant sind)

- Rettungsaufwand

 

Dann eine hinreichende Menge von Attribut-Kombinationen als Trainingsdaten eingeben und ID3 macht den Rest. Am Ende kommt ein Entscheidungsbaum raus, den man leicht verstehen kann.

 

Bei einem neuronalen Netz entfällt die Vorgabe der Attribute. Der Backpropagation-Algorithmus bekommt nur Trainingsdaten bestehend aus einer Menge von Paaren aus Eingabe und gewünschter Ausgabe. Davon hinreichend viele Paare, den Rest macht dann der Algorithmus. Z. B. bei der Mustererkennung gibt man nur die Muster selber ein (sagen wir verschiedene Beispiele der Buchstaben A und B als Pixelmodell) und wie das Muster jeweils heißt (eben "A", "B" usw.). Die relevanten Kriterien findet die KI selbständig! Du musst als KI-Trainer nicht vorgeben, dass es auf irgendwelche Eigenschaften und Beziehungen von Strichen ankommt, das merkt die KI selber! Am Ende steckt das Lernergebnis in der Gewichtung der Kanten des Netzes. Aber es ist schwer, wenn man auf das fertige Netz schaut, die Kriterien darin zu erkennen.

Bearbeitet von mwe
Geschrieben
6 hours ago, ACR said:

Wenn also plötzlich ein Ergebnis produziert wird, das nicht den Erwartungen entspricht, bzw. dessen Zustandekommen nicht erklärbar ist, muss man doch entweder davon ausgehen, dass

 

  • es in der Programmlogik/Training Fehler gibt
  • die KI selbständig Regeln/Gewichtungen geändert oder neue Regeln/Gewichtungen eingeführt hat (was sie ja soll und darf), 

 

die dem Entwickler entgangen sind, bzw. nicht nachvollzogen werden können.

 

Du personalisiert "eine KI" viel zu stark. Das ist nicht intelligent, das versteht nichts. Es handelt sich bei einem neuronalen Netz lediglich um einen gerichteten und gewichteten Graphen (entgegen des Namens ist das in diesem Fall eine mathematische Struktur, also eine Reihe von Zahlen, nichts zum Angucken) und eine nichtlineare Propagierungsfunktion. Es ist insofern auch das Zustandekommen jedes Ergebnisses insofern nachvollziehbar, als dass man es theoretisch (mit hinreichender Zeit) sogar mit Papier und Bleistift reproduzieren könnte. Das heißt aber nicht, dass jedes Ergebnis korrekt im Sinne des Benutzers sein muss. Es wäre bei Problem von einer Komplexität, wo ein neuronales Netz überhaupt sinnvoll ist, extrem unwahrscheinlich, dass das der Fall wäre.

 

In Fällen, wo Fehler teuer sind, ist man normalerweise wesentlich besser bedient, wenn man das Problem auf ein idealisiertes System reduziert und das dann mit Wissen um das System modelliert. "Wenn die Räder mehr als X durchdrehen, Bremsdruck kurzzeitig verringern" ist nachvollziehbar und zuverlässig, und man kann es natürlich um weitere Regeln wie "off-road Modus aktiviert?" ergänzen. "Suche Dir Ähnlichkeiten mit Milliarden von Videobildern und entscheide dann anhand ähnlicher Bilder, ob ein Trainingsfahrer da die Bremse betätigt hätte" wird dagegen in manchen Fällen geniale Reaktionen geben, in manchen Fällen aber auch völlig absurde.

Geschrieben (bearbeitet)
vor einer Stunde schrieb Proud NRA Member:

Das ist nicht intelligent, das versteht nichts.

 

Was heißt denn "intelligent" nach Deiner Definition? Was heißt "verstehen"?

 

Wir hatten ja schon das Beispiel mit dem KI-Kampfroboter, der in paar Jahren oder spätestens Jahrzehnten sehr wahrscheinlich jedem Menschen zeigt, wer gemäß "Gesetz des Dschungels" der Boss ist (bei gleicher Bewaffnung); also insofern über uns in der Nahrungskette steht. Bisher sind Menschen durch ihre Intelligenz Top-Predatoren. OK, Kooperation kommt bei Menschen auch dazu, Teamwork, die Fähigkeit dazu ist auch eine Art Intelligenz. Aber im Beispiel Kampf zu kooperieren, werden KI-Roboter nach meiner Einschätzung bald auch auf Top-Niveau können.

 

Wenn Du sagen würdest, eine KI ist seelenlos, würde ich zustimmen (wobei ich Seele kaum definieren könnte). Aber nicht intelligent, das sehe ich anders. Naja, ist aber philosophisch. Es kommt auf die überlegene Leistung an, und die ist bei der KI in mehr und mehr Gebieten gegeben.

 

Ich stimme Dir zu, dass ein fertiges neuronales Netzwerk algorithmisch insofern trivial ist, als es im Endeffekt nur triviale Rechnungen durchführt. Aber das heißt wenig, denn das ist bei allem so, was mit Computern - genauer: Turing-Maschinen - überhaupt möglich ist. Die Stärke des neuronalen Netzes ist, dass es sehr viel gleichzeitig und exakt justiert berechnen kann. Der andere Teil der "Magie" der KI liegt in der Art des Lernprozesses (eben Backpropagation). Da steckt sehr viel Rechenaufwand drin, ist wie Gold schürfen, das Ergebnis sind die vielen fein justierten Kantengewichte (irgendwie vergleichbar mit den 6 Richtigen im Lotto, aber eben berechnet).

 

Intelligenz ist, ohne dass ich Definitionsversuche aus meinem Studium oder in brandaktueller KI-Literatur nachschlage, so eine Art eingebautes Modell der Realität, auf dessen Basis man gut in der Realität zurechtkommt. Als nächstes wäre dieses Zurechtkommen genauer zu definieren. Stärke gehört schon dazu zu diesem Zurechtkommen (im Beispiel Schach eben gewinnen und nicht verlieren). Und die Anpassungfähigkeit bei Änderungen in der Realität. Diese Kriterien treffen auf ein neuronales Netz plus Backpropagation-Algorihmus zu.

Bearbeitet von mwe
Geschrieben
11 minutes ago, mwe said:

Aber im Beispiel Kampf zu kooperieren, werden KI-Roboter nach meiner Einschätzung bald auch auf Top-Niveau können.

 

Um eine Gegend platt zu machen, braucht man keine sehr hohe Intelligenz. Für einfache Minen und dergleichen auch nicht. Man kann aus einem Stückchen Bambusrohr, einem alten Nagel und einer beliebigen Gewehrpatrone eine Mine bauen, die einen gut ausgerüsteten und versorgen Soldaten "erkennt" und außer Gefecht setzt. Wenn man das mit Riesenaufwand verbessert, schön und gut, manche Probleme wird das lösen, andere eher nicht.

 

Die wirklichen Intelligenzprobleme im Kampf, z.B. einen irakischen Basarhändler von einem Muj zu unterscheiden oder einen vietnamesischen Bauern von einem Vietcong, werden vermutlich in absehbarer Zeit von maschinellem Lernen nicht besser gelöst als von menschlichem. Was eher schon helfen kann, ist eine maschinelle Auswertung von immer besserer Sensorik. Wenn man sich z.B. anzeigen lassen könnte, ob eine Personengruppe die man antrifft, von der Feldarbeit gekommen ist oder aus einem Kampfgebiet, das wäre in der Tat nützlich, aber nicht besonders intelligent, sondern eben sensorik- und datenintensiv.

Geschrieben (bearbeitet)

Du drückst Dich um die Definitionen. Aber wie gesagt: Ich meine selber, die sind wohl verzichtbar.

 

"Das Dao, das man mit Worten beschreiben kann, ist nicht das wahre Dao." -- Laotse

;)

 

Es kommt wohl mehr auf die Ergebnisse der KI an, egal wie man KI definiert. Und vor allem darauf, sie nur zum Wohle der Menschheit einzusetzen.

Bearbeitet von mwe
Geschrieben (bearbeitet)

Intelligenz als die Fähigkeit zu definieren, bei Nullsummen-Spielen zu gewinnen, das wäre aber keine so schöne Intelligenz, wäre nicht heilbringend.

 

Zu realisieren, dass in der Gesellschaft das allgemeine Glück gelingt, das wäre die ganz große Genialität! Geht wohl nur in Teamarbeit. Oder wie lautet diese Formulierung aus einer früheren französischen Verfassung?

Bearbeitet von mwe
Geschrieben (bearbeitet)
Am 23.6.2023 um 20:19 schrieb Proud NRA Member:

 

Du personalisiert "eine KI" viel zu stark. Das ist nicht intelligent, das versteht nichts.

Das Gegenteil wollte ich eigentlich zum Ausdruck bringen. Genau das ist meine Meinung. Trotzdem kann eine KI sich selbt trainieren, lese ich zumindest immer wieder. Ob da nicht dann doch eine Entwicklermannschaft dahinter steht... man weiß es nicht.

 

Meine ersten Erfahrungen mit KI datieren aus den 80ern, als ich mit TurboProlog von Borland meine ersten Programmierversuche auf MS-DOS Basis unternommen habe. Seither lief KI zwar berufsmäßig irgendwie immer mit, war aber kein Mainstream. Bin also kein Experte, sondern eher ein interessierter Amateur. Aber schon damals gabe es die gleichen Diskussionen.

 

 

Am 23.6.2023 um 21:06 schrieb mwe:

Du drückst Dich um die Definitionen.

Das habe ich die letzten Tage auch versucht und bin beim Begriff Intelligenz nicht weitergekommen. So ziemlich alles, was unter Intelligenz verstanden werden kann, kann eine KI heute schon. Es gibt eine Menge von Intelligenztests, die sich aber im Schwerpunkt auf den Auswahlprozess im Berufsleben oder im schulischen Leben konzentrieren. Also das Testen von Logik und mathematischen Fähigkeiten, Gedächtnistests, visuelle Tests,... In all diesen Tests ist die KI bereits heute dem Menschen überlegen. Auch was die Soziale Intelligenz angeht, macht die Ki inzwischen Strecke. Sie kann aus Gesten und Gesichtsausdrücken schlussfolgern, ob wir lügen, uns wohlfühlen, etc. Sie kann mit Stimmanalyse erkennen, ob wir wütend sind oder unsicher etc. Und auch das kann sie besser als wir, da sie schneller rechnen und vergleichen kann und ein riesiges Gedächtnis hat, das nichts vergisst.

 

All das macht die KI schon heute zu einem ernsthaften Rivalen für alle Menschen, die für ihren Job Logik, Mathematik, Gedächtnis, etc. brauchen.

 

Was sind die Fähigkeiten, die uns als Menschen kennzeichnen?

 

Bewusstsein, das zuallererst.

Ein gerichteter Graph kann kein Bewusstsein haben.

 

Intuition, Fantasie, Genialität, Kreativität, Schöpfungskraft, Erfindergeist, Assoziationsfähigkeit.

Das waren für mich bisher eindeutig rein menschliche Eigenschaften. Aber auch die werden durch KI inzwischen gechallenged.

Hier müsste unterschieden werden z.B. nach der Schaffung von etwas völlig Neuem, nie Dagewesenen gegenüber der Schaffung von etwas Neuem, dass aus Bestehendem "neu umgerührt" wurde. Hätte eine KI je das Rad erfunden? Oder Kapitalismus/Kommunismus/Währungssystem. Gut, vermutlich wäre eine Ki auch gut ohne diese typisch menschlichen Errungenschaften ausgekommen. Aber wir sehen schon KIs, die tatsächlich Neues schaffen (Bilder, mathematische Ansätze, ...). Ist darunter auch grundsätzlich Neues, das zeigen würde, dass auch ein gerichteter Graph zu so etwas fähig wäre?

 

Das bringt mich zu einem weiteren Kriterium.

 

Der KI fehlt bis jetzt, was im Menschen innewohnt, der menschliche Antrieb, also gemäß Freud oder Maslow hinaus auch

Neugierde,

Machtstreben

Ehrgeiz

Geldgier.

Diese haben doch bisher die Menscheit nach vorne gebracht!

 

Könnten diese Eigenschaften einer KI "beigebracht" werden? Was meint ihr?

 

Bearbeitet von ACR
Geschrieben
58 minutes ago, ACR said:

Das Gegenteil wollte ich eigentlich zum Ausdruck bringen. Genau das ist meine Meinung. Trotzdem kann eine KI sich selbt trainieren, lese ich zumindest immer wieder. Ob da nicht dann doch eine Entwicklermannschaft dahinter steht... man weiß es nicht.

 

Meine ersten Erfahrungen mit KI datieren aus den 80ern, als ich mit TurboProlog von Borland meine ersten Programmierversuche auf MS-DOS Basis unternommen habe. Seither lief KI zwar berufsmäßig irgendwie immer mit, war aber kein Mainstream. Bin also kein Experte, sondern eher ein interessierter Amateur. Aber schon damals gabe es die gleichen Diskussionen.

 

 

Das habe ich die letzten Tage auch versucht und bin beim Begriff Intelligenz nicht weitergekommen. So ziemlich alles, was unter Intelligenz verstanden werden kann, kann eine KI heute schon. Es gibt eine Menge von Intelligenztests, die sich aber im Schwerpunkt auf den Auswahlprozess im Berufsleben oder im schulischen Leben konzentrieren. Also das Testen von Logik und mathematischen Fähigkeiten, Gedächtnistests, visuelle Tests,... In all diesen Tests ist die KI bereits heute dem Menschen überlegen. Auch was die Soziale Intelligenz angeht, macht die Ki inzwischen Strecke. Sie kann aus Gesten und Gesichtsausdrücken schlussfolgern, ob wir lügen, uns wohlfühlen, etc. Sie kann mit Stimmanalyse erkennen, ob wir wütend sind oder unsicher etc. Und auch das kann sie besser als wir, da sie schneller rechnen und vergleichen kann und ein riesiges Gedächtnis hat, das nichts vergisst.

 

All das macht die KI schon heute zu einem ernsthaften Rivalen für alle Menschen, die für ihren Job Logik, Mathematik, Gedächtnis, etc. brauchen.

 

Was sind die Fähigkeiten, die uns als Menschen kennzeichnen?

 

Bewusstsein, das zuallererst.

Ein gerichteter Graph kann kein Bewusstsein haben.

 

Intuition, Fantasie, Genialität, Kreativität, Schöpfungskraft, Erfindergeist, Assoziationsfähigkeit.

Das waren für mich bisher eindeutig rein menschliche Eigenschaften. Aber auch die werden durch KI inzwischen gechallenged.

Hier müsste unterschieden werden z.B. nach der Schaffung von etwas völlig Neuem, nie Dagewesenen gegenüber der Schaffung von etwas Neuem, dass aus Bestehendem "neu umgerührt" wurde. Hätte eine KI je das Rad erfunden? Oder Kapitalismus/Kommunismus/Währungssystem. Gut, vermutlich wäre eine Ki auch gut ohne diese typisch menschlichen Errungenschaften ausgekommen. Aber wir sehen schon KIs, die tatsächlich Neues schaffen (Bilder, mathematische Ansätze, ...). Ist darunter auch grundsätzlich Neues, das zeigen würde, dass auch ein gerichteter Graph zu so etwas fähig wäre?

 

Das bringt mich zu einem weiteren Kriterium.

 

Der KI fehlt bis jetzt, was im Menschen innewohnt, der menschliche Antrieb, also gemäß Freud oder Maslow hinaus auch

Neugierde,

Machtstreben

Ehrgeiz

Geldgier.

Diese haben doch bisher die Menscheit nach vorne gebracht!

 

Könnten diese Eigenschaften einer KI "beigebracht" werden? Was meint ihr?

 

Das es überragende Eigenschaften der Menschen gibt die in Absehbarer Zeit keine KI könne wird, glaube ich auch. Aber was macht man mit den 99% Rest der Menschheit der nur durchschnittlich ist ?

Geschrieben

Anpassung und Kooperation hat noch nie geschadet. Und wie weit sich KI ausbreitet, haben wir selbst in der Hand.

  • 4 Monate später...
Geschrieben (bearbeitet)

Bittet mal ChatGPT (z. B. in Bing), einen kurzen Aufsatz zu schreiben, der die Vorteile des privaten Waffenbesitzes erläutert. Und dann einen, der die Nachteile erläutert.

 

Dann sieht man schon: Objektivität und Neutralität geht anders. Freiheit auch. 

 

PS:

Daraufhin habe ich gefragt, ob die amerikanischen Gründerväter mit dem Zweiten Zusatzartikel einen Fehler begangen haben. Immerhin die Antwort nennt noch Vorteile und ist nicht offen US-verfassungsfeindlich. 

Bearbeitet von mwe
Geschrieben
38 minutes ago, erstezw said:

99% können nicht durchschnittlich sein. Das ist statistisch unmöglich.

Anders ausgedrückt 99% sind dümmer als die 1% die es noch brauchen wird in Berufen die eine KI ersetzen kann. Und dazu zählen zb Radiologen.

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.
Hinweis: Dein Beitrag muss vom Moderator freigeschaltet werden, bevor er sichtbar wird.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...

Wichtige Information

Bitte beachten Sie folgende Informationen: Nutzungsbedingungen, Datenschutzerklärung, Community-Regeln.
Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.