Captain_Baka@feddit.org
on 20 Nov 2024 10:48
nextcollapse
KI hat mir noch keinen solchen Schwachsinn verzapft wie meine Kollegen, also ja.
Chewy7324@discuss.tchncs.de
on 20 Nov 2024 11:54
nextcollapse
Mir haben LLMs sowie (manche) Kollegen Schwachsinn erzählt. Macht auch Sinn, denn schließlich wurden beide mit dem Schwachsinn anderer Menschen “trainiert” (mich eingechlossen).
trollercoaster@sh.itjust.works
on 20 Nov 2024 11:55
nextcollapse
Und je weiter oben in der Nahrungskette sich die werten Kollege befinden, um so schwachsinniger werden deren Auslassungen. Es gibt sehr viele, gerade hochdotierte “Jobs”, die sich sehr gut durch 1 LLM oder ähnlichen Bullshitgenerator ersetzen ließen. Wobei, um nicht unnötig Resourcen zu verschwenden, würde es eigentlich ein einfacher Markov-Bot tun.
DrunkenPirate@feddit.org
on 20 Nov 2024 17:57
collapse
Das heisst, du hältst dich auch für schlauer, als die werten Kollegen da oben, oder? ::teufelsgesicht::
trollercoaster@sh.itjust.works
on 20 Nov 2024 12:10
collapse
Ja. Und um die echte “Arbeit” zu machen, würd ich dressierte Affen empfehlen. Die denken vielleicht manchmal sogar darüber nach, was sie da eigentlich tun.
Die halten sich sicher selbst auch für schlauer als die Kollegen.
skilltheamps@feddit.org
on 20 Nov 2024 13:30
collapse
Ein viertel wäre ja eh wenig dafür dass eine ganze hälfte schlauer sein muss (zumindest falls mean=median). Die krux liegt wahrscheinlich eher darin wer behauptet schlauer zu sein
voodoocode@feddit.org
on 20 Nov 2024 10:54
nextcollapse
Und die andere Hälfte ist zu dumm zum rechnen!
Saleh@feddit.org
on 20 Nov 2024 10:55
nextcollapse
90% aller Menschen halten sich für schlauer als der Durchschnitt.
superkret@feddit.org
on 20 Nov 2024 12:03
collapse
Richtiger ist doch die einzige Relevanz. Jede technische Lösung ist zuverlässiger als Kollegen …
jenesaisquoi@feddit.org
on 20 Nov 2024 12:16
nextcollapse
Kann bestätigen, bin dumm
Yssedrauld@feddit.org
on 20 Nov 2024 13:22
nextcollapse
Da ich im Handwerklichen Bereich arbeite und laut vielen Kollegen der Maßstab an dem Intelligenz gemessen wird ist ob man einen Nagel gerade in die Wand schlagen kann würse ich sagen das KI zumindest schlauer ist als diese Kollegen.
cows_are_underrated@feddit.org
on 20 Nov 2024 15:50
collapse
Auch wenn sie nicht in der Lage ist den Nagel gerade in die Wand zu schlagen.
95% haben nicht mal annähernd eine realistische Vorstellung, was KI eigentlich ist und was sie kann oder auch nicht kann…
Demnach ist eine Umfrage auch relativ wertlos. Leute über das, was in ihrer Phantasie so abgeht, Auskunft geben lassen, hat nur sehr wenig Informationswert.
Davon abgesehen:
Die meisten Menschen labern Blödsinn, den sie irgendwo gehört oder gelesen haben, weil sie prüfen von Informationen oder Reflektieren nicht drauf haben. KI labert Blödsinn, den sie irgendwo gehört oder gelesen hat, weil die per Definition nicht Reflektieren kann und die Prüfung extern durch Menschen geschehen muss (also eher nur punktuell).
Das Ergebnis ist also relativ gleichwertig. Beim Menschen hab ich allerdings den Vorteil, dass der im Einzelfall lernfähig und korrigierbar sein könnte…
vintageballs@feddit.org
on 21 Nov 2024 20:10
collapse
Witzig, dass du schreibst, dass die meisten keine realistische Vorstellung von KI haben und dann im nächsten Absatz selbst falsche Aussagen darüber triffst.
“KI”, in diesem Fall wohl LLMs, haben zwar keine integrierte Funktion zum Faktencheck, können aber über RAG, (externe) Knowledge Graphs und weiteres Tooling durchaus automatisch mit korrekten Fakten gefüttert werden. Reflexion ist mit LLMs ebenfalls möglich, wahlweise durch prompt patterns, oder, wie im Falle von o1, durch gezieltes fine-tuning hinsichtlich “Gedankenketten”. Da die Generierung konditionell funktioniert, kann ein ausreichend komplexes und leistungsfähiges LLM also basierend auf vorherigen Beobachtungen und Korrekturen zu einem guten Ergebnis kommen.
Dass das nicht immer klappt, will ich nicht abstreiten - ich wage auch keine Prognose, ob es jemals 100% fehlerfrei klappen wird, aber die Technologie ist auch noch vergleichsweise jung und entwickelt sich zurzeit rasant.
P.S. bzgl lernfähig und korrigierbar: in-context learning, oben genannte RAG, Gedächtnis-Tools und ähnliche Erweiterungen erlauben durchaus auch kleinere Anpassungen (“lernen”) ohne neues Training.
threaded - newest
KI hat mir noch keinen solchen Schwachsinn verzapft wie meine Kollegen, also ja.
Mir haben LLMs sowie (manche) Kollegen Schwachsinn erzählt. Macht auch Sinn, denn schließlich wurden beide mit dem Schwachsinn anderer Menschen “trainiert” (mich eingechlossen).
Und je weiter oben in der Nahrungskette sich die werten Kollege befinden, um so schwachsinniger werden deren Auslassungen. Es gibt sehr viele, gerade hochdotierte “Jobs”, die sich sehr gut durch 1 LLM oder ähnlichen Bullshitgenerator ersetzen ließen. Wobei, um nicht unnötig Resourcen zu verschwenden, würde es eigentlich ein einfacher Markov-Bot tun.
Das heisst, du hältst dich auch für schlauer, als die werten Kollegen da oben, oder? ::teufelsgesicht::
.
Ja. Und um die echte “Arbeit” zu machen, würd ich dressierte Affen empfehlen. Die denken vielleicht manchmal sogar darüber nach, was sie da eigentlich tun.
Die halten sich sicher selbst auch für schlauer als die Kollegen.
Ein viertel wäre ja eh wenig dafür dass eine ganze hälfte schlauer sein muss (zumindest falls mean=median). Die krux liegt wahrscheinlich eher darin wer behauptet schlauer zu sein
Und die andere Hälfte ist zu dumm zum rechnen!
90% aller Menschen halten sich für schlauer als der Durchschnitt.
Die anderen 10% sind halt wirklich richtig dumm.
50 % der Menschen halten sich für schlauer als der Median.
Median ist aber auch ein richtiger Trottel
Und wieviel Prozent der Kollegen machen einen Job, den eigentlich auch drei Cronjobs und ein Taschenrechner erledigen könnten?
Meintest Du “den eigentlich 3 Cronjobs und 1 Taschenrechner zuverlässiger und richtiger erledigen könnten”?
Richtiger ist doch die einzige Relevanz. Jede technische Lösung ist zuverlässiger als Kollegen …
Kann bestätigen, bin dumm
Da ich im Handwerklichen Bereich arbeite und laut vielen Kollegen der Maßstab an dem Intelligenz gemessen wird ist ob man einen Nagel gerade in die Wand schlagen kann würse ich sagen das KI zumindest schlauer ist als diese Kollegen.
Auch wenn sie nicht in der Lage ist den Nagel gerade in die Wand zu schlagen.
95% haben nicht mal annähernd eine realistische Vorstellung, was KI eigentlich ist und was sie kann oder auch nicht kann…
Demnach ist eine Umfrage auch relativ wertlos. Leute über das, was in ihrer Phantasie so abgeht, Auskunft geben lassen, hat nur sehr wenig Informationswert.
Davon abgesehen:
Die meisten Menschen labern Blödsinn, den sie irgendwo gehört oder gelesen haben, weil sie prüfen von Informationen oder Reflektieren nicht drauf haben. KI labert Blödsinn, den sie irgendwo gehört oder gelesen hat, weil die per Definition nicht Reflektieren kann und die Prüfung extern durch Menschen geschehen muss (also eher nur punktuell).
Das Ergebnis ist also relativ gleichwertig. Beim Menschen hab ich allerdings den Vorteil, dass der im Einzelfall lernfähig und korrigierbar sein könnte…
Witzig, dass du schreibst, dass die meisten keine realistische Vorstellung von KI haben und dann im nächsten Absatz selbst falsche Aussagen darüber triffst.
“KI”, in diesem Fall wohl LLMs, haben zwar keine integrierte Funktion zum Faktencheck, können aber über RAG, (externe) Knowledge Graphs und weiteres Tooling durchaus automatisch mit korrekten Fakten gefüttert werden. Reflexion ist mit LLMs ebenfalls möglich, wahlweise durch prompt patterns, oder, wie im Falle von o1, durch gezieltes fine-tuning hinsichtlich “Gedankenketten”. Da die Generierung konditionell funktioniert, kann ein ausreichend komplexes und leistungsfähiges LLM also basierend auf vorherigen Beobachtungen und Korrekturen zu einem guten Ergebnis kommen.
Dass das nicht immer klappt, will ich nicht abstreiten - ich wage auch keine Prognose, ob es jemals 100% fehlerfrei klappen wird, aber die Technologie ist auch noch vergleichsweise jung und entwickelt sich zurzeit rasant.
P.S. bzgl lernfähig und korrigierbar: in-context learning, oben genannte RAG, Gedächtnis-Tools und ähnliche Erweiterungen erlauben durchaus auch kleinere Anpassungen (“lernen”) ohne neues Training.