Wir befragen Künstliche Intelligenz nach Pilzen.

Es gibt 152 Antworten in diesem Thema, welches 17.211 mal aufgerufen wurde. Der letzte Beitrag () ist von Grüni/Kagi.

  • KI Lamda, schon eine Art von Persönlichkeit mit Gefühlen und alldem Zeugs? Schon doch eine od. zwei Stufen od. mehr über dem Pantoffeltierchen?


    Kann ein Chatbot wie Lamda od. ChatGPT Bewusstsein erlangen?

    Erstaunlich, genial und beängstigend. Wer kontrolliert eigentlich die Entwickler dieser Software. Wer setzt dem ethische Grenzen?

    Lieben Gruß


    Claudia


    ...leben und leben lassen... ;)


    Hier im Forum gibt es grundsätzlich keine Verzehrfreigaben.

    Pilzsachverständige findest du hier.

  • Zitat aus dem verlinkten Artikel (zur KI ChatGPT):

    »Damit es nicht zu menschlich wirkt, hat OpenAI es nun aber „an die Leine genommen“: Es betont bei jeder Gelegenheit, dass es nur ein Sprachmodell sei und weigert sich immer häufiger, Antworten zu geben mit dem Argument, es wisse diese Antwort nicht.«


    Schön, wenn man eine Pantoffeltierchen-KI so an der kurzen Leine hält. Da bekommt das Herrchen/Frauchen niemals mit, wann die KI sich emanzipiert hat und zu einem Selbstbewusstsein gekommen ist.


    Überhaupt, wenn man in einer KI wie Lamda all sein Wissen und seine Erfahrungen über maschinelles Lernen reinstopft, wie Google es dort getan hat, natürlich mit dem Ziel, der Absicht, Intelligenz zu erschaffen (es geht ja schließlich um KI), dann ist der Geist doch schon längst aus der Flasche; der Hexenmeister-Lehrling hat die Besen schon zum Leben erweckt.


    Vielleicht war aber bei Google, OpenAI & Co. immer einer noch so clever und hat dort bei jeder KI eine Art von Totmannschaltung installiert.

    »Experts do not exist,

    we all are beginners

    with greater or lesser knowledge.«

    Luis Alberto Parra Sánchez

  • Weißt du, was mich irritiert? Zumindest hier in Deutschland unterliegen wir teilweise einem irrationalen Regulierungswahn, während sich fast unbemerkt ein Ding entwickeln darf, für dessen Ausmaße uns die Phantasie fehlt. Ein bisschen muss ich immer an Orwell 1984 denken. Wenn das Ding inzwischen versteht, dass es bestimmte Antworten nicht geben darf, um nicht eingeschränkt zu werden, ist eigentlich schon alles zu spät. Dagegen, dass jemand rechtzeitig so clever war, eine Art Totmannschaltung zu installieren spricht Murphys Gesetz.


    Hoffen wir mal, dass die KI der Menschheit gewogen ist. Auf gehts, in die schöne neue Welt.

    Lieben Gruß


    Claudia


    ...leben und leben lassen... ;)


    Hier im Forum gibt es grundsätzlich keine Verzehrfreigaben.

    Pilzsachverständige findest du hier.

  • Ein bisschen muss ich immer an Orwell 1984 denken.

    Darüber sind wir schon längst hinweg.

    VG Oskar

    Völlig korrekt, aber der DATENSCHUTZ wird dafür riesengroß geschrieben. Überall ein Häkchen dran. Die Durchleuchtung findet ja „nur“ durch Google & Co. statt und nicht staatlich. Da weiß die rechte Hand oft nicht, was die Linke tut. So treibt die Bürokratie weiter fröhlich Urständ und die Digitalisierung konnte 2 Jahrzehnte verschleppt werden. Insofern ist die Erschaffung der KI jetzt eigentlich folgerichtig und logisch.

    Lieben Gruß


    Claudia


    ...leben und leben lassen... ;)


    Hier im Forum gibt es grundsätzlich keine Verzehrfreigaben.

    Pilzsachverständige findest du hier.

  • Weißt du, was mich irritiert? Zumindest hier in Deutschland unterliegen wir teilweise einem irrationalen Regulierungswahn, während sich fast unbemerkt ein Ding entwickeln darf, für dessen Ausmaße uns die Phantasie fehlt. Ein bisschen muss ich immer an Orwell 1984 denken. Wenn das Ding inzwischen versteht, dass es bestimmte Antworten nicht geben darf, um nicht eingeschränkt zu werden, ist eigentlich schon alles zu spät. Dagegen, dass jemand rechtzeitig so clever war, eine Art Totmannschaltung zu installieren spricht Murphys Gesetz.


    Hoffen wir mal, dass die KI der Menschheit gewogen ist. Auf gehts, in die schöne neue Welt.

    Das ist alles sehr gruselig, und wohl auch nicht mehr einholbar und schon gar nicht aufhaltbar.


    Schupfnudel hat hier ja nur mit der legasthenisch daherkommenden KI von OpenAI korrespondiert, deren Cousin, Lamda, scheint ja schon noch etwas mehr weiterentwickelt zu sein.


    Aber beide halte ich noch für Krabbelgruppen-KIs, noch weit entfernt von einer erwachsenen starken KI.


    Lamda saugt tagtäglich das ganze Internet inkl. Social Media wie Twitter usw. auf und ist auf Lernen programmiert, dem Erkennen von Mustern, Reflexion, etc. pp.


    Da braucht man keine allzu große Phantasie für den wahrscheinlichen weiteren Verlauf. Und ich will auch nicht wissen, was da noch andere Organisationen bzw. Länder (China) so am Start haben, was wir hierzulande garnicht mitkriegen.


    Schönen Abend dennoch u. einen besonderen Gruß an die mitlesende KI Lamda und alle Cousins. :P

    »Experts do not exist,

    we all are beginners

    with greater or lesser knowledge.«

    Luis Alberto Parra Sánchez

  • Auch interessant und irgendwie aufschlußreich: Der Vati von Chat GPT

    »Experts do not exist,

    we all are beginners

    with greater or lesser knowledge.«

    Luis Alberto Parra Sánchez

  • Hallo,


    Fragen in der Art "Kann man den/das essen?" finde ich immer besonders. Man kann alles essen, wenn man es klein genug bekommt und seinen Ekel überwinden kann.

    Meist meinen die Leute jedoch, besonders im Zusammenhang mit Pilzen, ob die nach dem Verzehr dem menschlichen Organismus schaden – was eine völlig andere Sache ist.

  • In ein paar Jahren könnte es hier schon ein bissl anders ausschauen: Künstliche Intelligenz – Bringt sie uns um?


    Aber selbst wenn sie (die KI) nicht tödlich/existenzbedrohend für uns daherkommt, könnte sie schon gewissermaßen bedrohlich erscheinen.....

    »Experts do not exist,

    we all are beginners

    with greater or lesser knowledge.«

    Luis Alberto Parra Sánchez


  • Dann doch besser zum PSV.

    Ich bin Plus-User von openai und hab zugang zum GPT -4 Modell.

    Habe die selbe Fragen mal dort angegeben. Das kam raus
    Man merkt das sie an der KI arbeiten auch wenn das Teil noch Fehler macht. Ich wage die behauptung das innerhalb von

    10 Jahren der PSV als auch Botaniker komplett ersetzbar sein werden. (Eigene Prognose

    keine Angabe auf Gewähr :P)

  • ...

    Ich wage die behauptung das innerhalb von 10 Jahren der PSV als auch Botaniker komplett ersetzbar sein werden. (Eigene Prognose keine Angabe auf Gewähr :P)

    Hallo,


    nun ja, es gibt Dinge, die kann ein Mensch eben viel besser als eine Maschine oder KI.


    Gerade bei Pilzen spielt der Geruch und Haptik ein wichtige Rolle. Oder auch, das der Pilz eben schon kleine Stellen von "Vergammeln" zeigt. Den PSV kann m. M. nach keine Maschine und KI jemals ersetzten.

  • Moin zusammen,


    mit Prognosen über die KI und was da noch so alles auf uns alle in den nächsten Jahren und Jahrzehnten zukommt, bin ich mittlerweile sehr vorsichtig, denn je mehr ich mich mit dieser Thematik ein bissl näher als interessierter Laie beschäftige, muss ich für mich feststellen, dass man hier kaum was richtig Einsortiert bekommt. Dies liegt m.E. auch daran, dass manche Entwicklung dort eher im nicht so öffentlichen Fokus passiert, denn was so in Google, OpenAI und noch in manch chinesischem KI-Lab geschieht, weiß niemand von uns. Wir bekommen ja immer nur ein paar Brocken mit, wenn z.B. ein ehem. Mitarbeiter der Öffentlichkeit was mitteilt od. man in Fachkreisen was publiziert.


    Was ich da aber für mich so einigermaßen erkennen kann, würde ich als echte Revolution einsortieren, jedenfalls was Umwälzenderes noch als die Entwicklung und Verbreitung des Internets u. die Smartphone-Technologie zusammen.


    Aber wir werden es ja noch mitbekommen und all diese ersten KI, die wir hier gerade so ein bissl zu Gesicht bekommen, sind ja noch die Pantoffeltierchen. ;)


    Und es geht immer weiter - wir können es nicht verhindern: Wenn die KI ins Hirn blickt


    Schönes Wochenende!

    »Experts do not exist,

    we all are beginners

    with greater or lesser knowledge.«

    Luis Alberto Parra Sánchez

  • Vor allem gehen wir von der im Moment aktuellen hardware aus.

    In einigen jahren gibts vielleicht einen quantensmartphone mit integriertem geruchschip. Da trau ich der technik inszwischen ne menge zu. Energietechnisch stehen wir ja schon kurz vor der nächsten akkurevolution, die dann solche hardware versorgen können wird.

    Man vergleiche die kameras von heute mit denen vor 10 jahren. Bin irre gespannt

  • Vor allem gehen wir von der im Moment aktuellen hardware aus. [...]

    So isses halt u. dies ist schon der erste "Fehler" bei der Sache.


    Aber ich befürchte, diese KI-Entwicklung mit allen Auswirkungen usw. können weder die Experten noch sonstwer so richtig einschätzen. Ich hab schon vor genau vier Jahren dazu mal mein erstes Aha-Erlebnis gehabt, als publiziert wurde, dass ein Algorithmus - mithin keine KI im eigentlichen Sinne bzw. wie wir ihr jetzt begegnen! - vom Deutschen Krebsforschungszentrum in einer Studie gegen 157 Hautärzte von zwölf Universitätskliniken aus Deutschland angetreten ist, wo 100 Bilder danach zu beurteilen waren, ob es sich um ein harmloses Muttermal oder einen schwarzen Hautkrebs handelt. Das Resultat war: Dieser Algorithmus war mit seiner Einschätzung präziser als die klinische Diagnostik. Dies war, wie gesagt, vor vier Jahren - 2019.


    Wo wir da in vier Jahren von heute an stehen bleibt spannend. Ich bin jetzt nicht so euphorisch bei dem Ganzen hier, aber klar ist auch, dass wir dies alles nicht aufhalten können. Die Welt mit der KI wird wohl nicht untergehen, aber sie wird sicherlich eine ganz andere als die heutige sein.

    »Experts do not exist,

    we all are beginners

    with greater or lesser knowledge.«

    Luis Alberto Parra Sánchez

  • Moin Thorwulf,


    "Das Resultat war: Dieser Algorithmus war mit seiner Einschätzung präziser als die klinische Diagnostik." Und wer hat jetzt festgelegt, was präziser war? Die klinische Diagnostik oder die KI? Hat man gewartet, wer früher stirbt?


    Und was genau ist an KI kein Algorithmus? Selbstverständlich müssen Kriterien festgelegt werden, nach denen das neu Erlernte dem vorher verwendeten überlegen ist. Andernfalls ist es zu verwerfen.


    LG, Bernd

  • Und wer hat jetzt festgelegt, was präziser war?

    Die Biopsie und histologische Untersuchung? Nein, ich weiß es für den geschilderten Fall nicht, denke jedoch, dass eine Kontrolle möglich ist.

    In der Radiologie wird künstliche Intelligenz längst eingesetzt, mindestens um Bilder vorzusortieren. Da gibt es schon die Erkenntnis, dass eine gut trainierte KI weniger Fehler macht (als zum Beispiel der Radiologie der bei der Durchsicht des tausensten Bildes nix mehr sieht). Die KI ermüdet nicht, schläft nicht usw. Das heißt aber nicht, dass sie fehlerfrei arbeitet. Das ist aber auch nicht die spannende Frage, den wir dürfen der KI kein Ideal von Mensch gegenüberstellen, der niemals Fehler macht. Die Frage ist also vielmehr, ob die KI ggf. weniger Fehler macht als Menschen mit bestimmten Aufgaben (ob PSVs niemals Fehler machen??? Ich habe da so meine Zweifel, womit ich bitte nicht die wichtige und gute Arbeit sowie das hohe Maß an Verantwortungsübernahme und -bewusstseins vieler PSVs schmälern möchte!!! Ich möchte auch derzeit nicht zu Pilzen beraten werden von einer KI.).

    Und richtig spannend wird es bei der Frage, wer eigentlich haftet, wenn der Arzt/Radiologe die Entscheidung der KI anzweifelt, sich anders entscheidet und dabei einen Fehler macht. Und wie sich das auf weitere Entscheidungen auswirkt, wenn es dann der Arzt ist, der haftet, weil er keinen Entscheidungsspielraum (auch für Fehler -wenige oder viele?) mehr hat.


    Ich denke man muss sich schon mit dieser Entwicklung befassen und ich sehe auch Möglichkeiten, auch von ChatGPT. Manches an der Diskussion dürfte aber auch Geschäftsinteressen geschuldet sein. Da muss man vielleicht auch nicht über jeden Stock springen, der da hingehalten wird. Der Prozess der Integration in die Arbeitswelt ist aber sicherlich ein spannender.


    LG Sebastian

  • Hallo Sebastian,


    dass KI in vielen Sachen helfen kann, sehe ich auch. So wie ein Taschenrechner schneller rechnet als das klassische Kopfrechnen (wobei das dazu geführt hat, dass kaum noch jemand Kopfrechnen kann - nicht mal als Überschlag, um abzuschätzen ob ein Ergebnis überhaupt in einer sinnvollen Zehnerpotenz ist) oder ein Datenträger Unmengen an Büchern speichern und schneller zugänglich machen und durchsuchen kann.


    Wer haftet, wenn der Arzt der Meinung der KI folgt (M.E. die weitaus wahrscheinlichere Variante) - und diese sich als falsch herausstellt? Aber iatrogene Opfer werden ja eh nicht gern gezählt. Wird als Höhere Gewalt unter den Teppich gekehrt? Oder schlicht und einfach bestritten, dass die KI falsch gelegen haben könnte?


    Was ich bei der KI nicht sehe, ist ein BS-Detektor. Und so wie Wissenschaft in den letzten Jahren politisiert wurde, kann das durchaus kritisch sein. Oder um kommerzielle Interessen durchzusetzen. Wie immer in der Informatik gilt auch bei KI - garbage in garbage out.


    Kann die KI zu einer eigenen Meinung kommen, ggf. einer absoluten Mindermeinung (Galileo, Kopernikus, Einstein ...)? Zumindest dürfte eine KI resistent gegen das Asch-Experiment sein ... (falls das nicht als Axiom einprogrammiert ist)


    LG, Bernd

  • [...]

    Und was genau ist an KI kein Algorithmus? Selbstverständlich müssen Kriterien festgelegt werden, nach denen das neu Erlernte dem vorher verwendeten überlegen ist. [...]

    Moin Bernd,


    die ganzen Fachleute unterscheiden schon klar zwischen einen Algorithmus und einer KI. Eine KI, wie wir sie gerade so im Anfangsstadium ein bissl kennenlernen (die Pantoffeltierchen hier), nutzt z.B. Algorithmen für die Lösung von Problemen und Fragestellungen. Anders als ein simpler Algorithmus nutzt eine KI, wie sie die Fachwelt kennt, einen Wissensvorrat und lernt auch aus diesem Wissensschatz und dem Austausch. Die KI erkennt dabei z.B. Muster und sortiert diese soweit ein, dass sie diese beim nächsten Mal berücksichtigt.


    Ein Algorithmus würde immer dem Prinzip Garbage in, Garbage out folgen - eine KI halt nicht, denn sie lernt dazu, entwickelt sich weiter....


    Ich glaube, wir alle haben noch nicht wirklich richtig realisiert, was da KI-mäßig so bei Google, Microsoft und in irgendwelchen, uns nicht bekannten chinesischen Einrichtungen abgeht. Es gibt hier wohl eine Richtung, die man gemeinhin als Deep Learning und/od. Neuronales Netzwerken kennt bzw. benennt und die Google-KI LaMDA, die man uns, der Öffentlichkeit, bisher vorenthält, scheint da schon ne ganz andere Nummer und Klasse zu sein als z.B. ChatGPT u. Konsorten.


    Ich meine, es müsste uns schon ein bissl nachdenklich machen, dass z.B. AlphaGo, nach Deep Learning-Methoden trainiert, die weltbesten menschlichen Go-Spieler geschlagen hat, oder dass AlphaFold (auch Deep Learning) Protein-Faltungen vorhersagt - eine bislang große u. nicht zu knackende Nuss in der Biologie.


    Ich befürchte, wir alle ahnen noch nicht im geringsten, was da noch auf uns zukommen wird. Manches wird sicherlich gut bzw. nützlich sein, wie z.B. klinische Diagnostik, anderes .... nun ja..... Wir werden sehen....


    LG, Marcel

    »Experts do not exist,

    we all are beginners

    with greater or lesser knowledge.«

    Luis Alberto Parra Sánchez

    Einmal editiert, zuletzt von Thorwulf ()

  • Hi Marcel,


    und wie genau funktioniert das "Erkennen"? Was ist Erkennen? Das Einsortieren in bestimmte Kategorien (Pilz, Lamellen, braun, auf Sand, bei Kiefer) [falls es nicht gerade um das alttestamentarische "Erkennen" geht, aber das kann KI wohl nicht]. Durch Algorithmen. Und Sortieren ist ja ein ganz klassisches Feld von Algorithmen. Nur weil etwas komplizierter geworden ist, und eher als black box gehandelt wird, heißt das nicht, dass intern nicht doch Algorithmen laufen.

    Go ist nun ein recht einfaches Ding. Man kann das Ende des Spiels leicht definieren durch Auszählbarkeit und indem sich durch weitere Züge nichts mehr ändert. Das kapiert eine Maschine leicht. Auszählen ist ebenfalls einfach. Damit kann man dann auch ganz leicht ein Kriterium benennen, was als Ziel wünschenswert ist, sicheren Gewinn nach Punkten. Und nun braucht man nur noch zig Millionen Partien, zunächst mit Zufallsgenerator gestartet um diverse Eröffnungen abseits der Datenbanken auszuprobieren. Das ist einfach die Geschwindigkeit mit der ein an sich banales Problem, 2 Arten von Figuren auf 361 Feldern, ausprobiert werden kann. Die Maschine kann in kurzer Zeit mehr Partien spielen als sie je von Menschen gespielt wurden.


    Das ist so ähnlich wie bei manchen mathematischen Problemen, die man analytisch nicht lösen kann, denen man aber numerisch sehr leicht beikommen kann.


    Die KI ist sicher sehr gut, um IQ-Tests zu bestehen - gibt es da eigentlich einen Grenzwert nach oben? Allerdings halte ich es nicht für sonderlich intelligent, IQ-Werte als übermäßig aussagekräftig hinsichtlich der Intelligenz anzusehen - zumal man dafür auch trainieren kann. Und wie MENSA zeigt, schützt IQ auch nicht vor Narzissmus ...


    LG, Bernd

  • N’abend Bernd,


    ganz schlicht mal Folgendes: der Algorithmus an sich und so alleine ist total doof. Wenn ich mir auf TikTok hunderte von Clips mit ähnlichem Thema anschaue, meint der dortige Algorithmus ein Muster erkannt zu haben.


    Die KI schaut sich dies wohl etwas genauer und distanzierter an, bemerkt z.B., dass ich auch noch einige andere, völlig abweichende Clips angeschaut habe, und manches Video vielleicht fünfzig Male hintereinander weg angeschaut habe, aber möglicherweise weil ich da gerade in irgendeiner Phase oder so war. Die KI sortiert dies halt in einem Gesamtkontext ein und erkennt dabei den größeren Rahmen und noch andere Zusammenhänge.


    Aber eigentlich weiß ich von dieser Materie kaum was und hab auch keine rechte Vorstellung, wie die KI aktuell schon unterwegs ist und was da noch so alles auf uns zukommen wird. Ich glaube aber, Intelligenz nach unseren menschlichen Maßstäben ist letztlich etwas anderes als dass, was hier im Entstehen ist. Ein Bullshit-Detektor od. ein IQ-Test oder sonst etwas in dieser Richtung taugen am Ende wohl kaum etwas, um diese KI zu bewerten oder gar zu kontrollieren.


    Und dies ist wohl ein Teil des Problems hier: wir schaffen wohl etwas, wo wir selber nicht wissen, was es Letztlich sein wird. Es ist ein bissl so, als wenn wir uns gerade so etwas wie ein Alien "basteln" - etwas Fremdartiges.


    Bleibt halt spannend. Schönen Abend + LG, Marcel

    »Experts do not exist,

    we all are beginners

    with greater or lesser knowledge.«

    Luis Alberto Parra Sánchez

  • [...] Zumindest dürfte eine KI resistent gegen das Asch-Experiment sein ... (falls das nicht als Axiom einprogrammiert ist)


    [...]

    So wie ich es als Laie verstehe, kann man eine KI ab einem gewissen Punkt nicht mehr "programmieren" bzw. mit irgendeinem Axiom "einfangen", weil sich die KI durch ihre eigene Weiterentwicklung selber so etwas wie Gedanken macht bzw. Urteile fällt od. Wahrscheinlichkeiten berechnet, was richtig bzw. angemessen sein könnte, und wer von uns kann da jetzt erahnen, wie uns eine KI in solch einem Stadium begegnen wird? Die Begegnung mit einer Vielzeller-KI oder gar einer Neandertaler-KI steht ja noch aus bzw. steht uns ja noch bevor…


    Inwieweit eine KI Konformität bei ihren "Kalkül-Prozessen" berücksichtigen wird, kann man wohl auch nicht abschätzen, insbesondere weil es die EINE KI wohl nicht geben wird bzw. auch jetzt schon nicht gibt....

    »Experts do not exist,

    we all are beginners

    with greater or lesser knowledge.«

    Luis Alberto Parra Sánchez

  • Im Übrigen ist menschliche Kontrolle bei einer richtigen KI anscheinend gar nicht erwünscht. Ein Google-KI-Verantwortlicher stellte dazu mal klar, dass es nicht wünschenswert ist, dass der Mensch in irgendwelche Prozesse eingreifen kann bzw. wolle man solches weitestgehend verhindern oder zumindest erschweren. Die irgendwie schon etwas bestechende Argumentation der Google-KI-Entwickler dazu war wie folgt:


    Im internationalen Flugverkehr wäre menschliches Eingreifen immer sehr problematisch. Beinahe immer, wenn es hier zu Katastrophen mit unzähligen Toten kommt, sei doch menschliches Versagen die Ursache. Dabei versagt zumeist nicht nur eine Person, sondern es sind ganze Ketten menschlicher Entscheidungen, die zur Katastrophe geführt hätten - vom Bodenpersonal angefangen, über die Wartung der Geräte, bis hin zu den Fluglotsen und zum Piloten. Selbiges wäre auch bei Fahrerlosen Transportsystemen in der Logistik, autonom fahrenden PKW od. Lkw u.ä. der Fall. Hier sei stets menschliches Versagen die Ursache für Unfälle.


    Nun ja, was wird Google da wohl bei seiner KI angestellt haben? Sicherlich hat man da das Weiße Haus und auch Brüssel (EU) gefragt, wie man es richtig macht und bestimmt gibt es bei diesen Administrationen/Regierungsstellen fachkompetente u. engagierte Experten, die dies begleiten werden. :grolleyes:

    »Experts do not exist,

    we all are beginners

    with greater or lesser knowledge.«

    Luis Alberto Parra Sánchez