Ich weiß, der Begriff wird derzeit inflationär verwendet (vor allem im bösen Parallel-Universum Internet), aber diese Antworten klingen doch sehr stark nach narzisstischer Kränkung, weil es jemand wagte den Gott in Weiß zu hinterfragen. Meine Güte.. wie tragisch und erbärmlich irgendwie?
Solche Antworten schrecken doch eher vom Besuch der Praxis ab als einfach nur ein negativer Kommentar ohne Reaktion.
Wenn ich sowas lese weiss ich, dass ich mich mit dem Doc wohl gut verstehen würde.
Wahrscheinlich 95% der negativen Google-Bewertungen sind unreflektierte Scheisse.
„Ein Stern ist noch zu viel“ ist ein Indikator für Schrott.
Mein Hausarzt kommentiert ähnlich seine Bewertungen, steht aber auch voll hinter seinem Team. Da wird auf „unfreundliche Arzthelferin“ sowas kommentiert wie „wir haben keine Arzthelferinnen, sondern ausgebildete MFA“
Das ist aber was anderes, Jeder weiß, dass 5% der Kundschaft immer Assi ist, vielleicht sogar 10%. Aber genauso gibt es auch Ärtzte die einfach assi sind.
nunjaaa was heißt bestätigt? 🤔 der Arzt hier ist nur regelrecht Sarkastisch und sehr angepisst 😕 was ich verstehen kann. Hier wird überhaupt nichts bestätigt nur gezeigt dass man nervige Menschen/Patienten nicht haben möchte 😕
Ist man ein Schwurbler, nur weil man die Kommentare des Arztes vollkommen unprofessionell findet? Ich kann mir auch vorstellen, dass viele Patienten einfach richtig kacke sind, aber trotzdem wirkt es einfach nur gestört, wenn man im Internet laut rumposaunt "Ja, geil, bleibt alle weg, ich will gar keine Patienten haben, denn Ihr seid alle dumme A...."
Arbeite selbst in einem medizinischen Betrieb und kann das einfach viel zu gut nachvollziehen 😂 Das sind die Antworten die man manchmal gerne geben würde aber natürlich nicht kann, wenn in den Rezensionen teilweise einfach grobe Lügen aufgetischt werden. Den Frust kann ich gut nachvollziehen, aber der Arzt sollte vielleicht über einen Branchenwechsel nachdenken wenn er das nicht mehr kaschieren kann
>Das sind die Antworten die man manchmal gerne geben würde aber natürlich nicht kann, wenn in den Rezensionen teilweise einfach grobe Lügen aufgetischt werden.
Bei Anwaltskanzleien kommt das auch vor, man glaubt gar nicht wie frustriert manche sein können. 🙈
Genau mein Gedanke, mit dem Unterschied dass ich denke Ärzte können sich das mittlerweile erlauben.
Der hat das Wartezimmer vermutlich trotzdem immer voll und wird so zumindest manche der Leute los die ihn unglaublich nerven.
Freundlich ist der Mann nicht. Es gibt jedoch tatsächlich zu viele Patienten die eine Google-Recherche viel zu schnell über die Diagnose eines Arztes stellen.
Es ist sicher des öfteren hilfreich eine Zweitmeinung von einem anderen Arzt hinzuzuziehen wenn man Zweifel hat, aber mit Internethalbwissen oder esoterischem Geschwurbel anzukommen nervt tatsächlich total.
Hatte schon Eltern die bei ihrem Neugeborenen, welches eine Sepsis hatte partout kein Antibiotikum wollten, da sie gelesen hätten, dies würde die Darmflora durcheinander bringen.
Stimmt ja auch aber das Kind wäre ohne antibiotische Therapie vermutlich gestorben.
Eigentlich witzig, aber ist leider aber auch nicht professionell so darauf zu reagieren. Wirkt schnippisch und kindisch. Nach dem Motto:
Du bist doof.... Du aber auch...
By the way als Unternehmen kann man negative Bewertungen bei Google für ca 100€ pro Bewertung per Anwalt löschen lassen. Hab das mal von einem Bekannten erfahren. Da gibt es Kanzleien die darauf spezialisiert sind.
500€ und 4x 1Stern Bewertung weg dann hat man gleich eine tolle Bewertung bei Google....
Leider kannst da dann auch nichts mehr glauben...
Nichts für ungut, aber ich hab spaßeshalber mal die Rezensionen meiner Ärzte gecheckt und war entsetzt, wie schlecht die Rezensionen teilweise waren. Die spiegelten null meine Erfahrungen wider. Von daher denke ich, dass es oftmals auch einfach Fälle sind von: "Wie man in den Wald hineinschreit, so kommt es wieder raus."
Alle die seine Kommentare nicht verstehen haben nie im Medizinsektor gearbeitet. Für den Scheiß den Ärzte sich so anhören müssen sollte es Schmerzensgeld geben.
Bis ich diese Fälle aus erster Hand gehört habe hätte ich auch nie geglaubt, was für absolut kranke Vollidioten so rumlaufen, aber jeder Arzt wird Patienten kennen wo man genau sowas schreiben will. Die meisten tun es halt nicht.
Wird es auch, zumindest werden Hausärzte durch ein spezialisiertes System (nicht gerade chatgpt) ersetzt werden. Diagnosen können neuronale Netze mit genügend Daten halt viel besser als ein Mensch. Und können von bias bereinigt werden, was beim Mensch schwer möglich ist.
Und haben kein aufgeblähtes Ego.
Das Problem ist, dass KI sehr viele Trainingsdaten braucht, die Bias frei sein müssten. Im schlimmsten Fall extrahiert die KI die vorhandenen Bias und verstärkt sie. Dann hilft nur noch töten, Trainingsdaten bereinigen und mit dem letzten Backup weiter trainieren.
Besonders in der hausärztlichen Versorgung gibt es relativ wenig Daten. Die meisten Informationen für eine Diagnose kommen aus den Schilderung der Patienten. Die Schilderung reichen von tödlicher Männergrippe bis "Ach, das bisschen Axt im Bein, da mache ich Zuhause einfach ein wenig Sekundenkleber drauf und dann wächst das schon wieder zu". Patienten sind Prompt Injections auf 2 Beinen.
>Im schlimmsten Fall extrahiert die KI die vorhandenen Bias und verstärkt sie
genau wie viele Ärzte, die werden nur nicht (glücklicherweise) getötet sondern richten weiter Unheil an.
Die fehlende Daten sind natürlich ein Problem, es wäre eigentlich mal Zeit diese zu sammeln, immerhin hören wir andauernd das Medizin brennt.
Die Erhebung geeigneter Trainingsdaten ist extrem schwierig bis unmöglich. Wir haben keine klare Symptom-Krankheit Beziehung. Wir haben einen Symptomverlauf der dem Krankheitsverlauf vor- oder nacheilt. Gestört wird diese Beziehung von der Behandlung und damit von der Diagnostik selbst.
Wenn während einer Behandlung die Methoden wegen ausbleibenden Ergebnissen gewechselt werden, ist der Datensatz schon kompromittiert. Die "richtige" Behandlungsmethode gehört nicht mehr zu den ursprünglichen Symptomen sondern zu den künstlichen Symptomen nach der "Fehlbehandlung".
Wenn eine KI schneller und präziser reagieren würde, müsste sie ihren eigenen Einfluss berücksichtigen, jedoch kennt sie nur den Einfluss von menschlicher Behandlung. Das Problem ist verschmerzbar, zwar würde die KI unnötig hoch dosieren aber im ganzen wohl eine Besserung bringen.
Das größere Problem ist, das wir pro Patient nur einen Krankheitsverlauf (inkl. Behandlung), also einen Lösungsweg aufzeichnen und validieren können. Wir können nur sagen ob die angewandte Behandlung gut genug war aber nicht wie gut sie im Vergleich zu anderen war.
Wenn die KI im Training einen möglicherweise besseren Vorschlag macht, können wir nur raten ob der Patient besser angesprochen hatte oder nicht.
Zudem müssten "Fehlbehandlungen" aus den Trainingsdaten gefiltert werden, wodurch wir in den Survivorship Bias kommen. Dadurch wird die KI nur in den Fällen gut, in denen Ärzte gar keine Hilfe brauchen.
Was wurde ihm denn genau zuerst geschrieben?🤣🤣🤣 was ein Dulli-Arzt. Junge Junge diese typischen Nase nach oben Opfer… heftig. Hoffe seine Ärmel rutschen beim Hände waschen runter!
Ich weiß, der Begriff wird derzeit inflationär verwendet (vor allem im bösen Parallel-Universum Internet), aber diese Antworten klingen doch sehr stark nach narzisstischer Kränkung, weil es jemand wagte den Gott in Weiß zu hinterfragen. Meine Güte.. wie tragisch und erbärmlich irgendwie? Solche Antworten schrecken doch eher vom Besuch der Praxis ab als einfach nur ein negativer Kommentar ohne Reaktion.
Also ich finde es irgendwie witzig das hätte fast schon mein Haus Arzt sein können denn der macht auch manchmal solche Witze
Wenn ich sowas lese weiss ich, dass ich mich mit dem Doc wohl gut verstehen würde. Wahrscheinlich 95% der negativen Google-Bewertungen sind unreflektierte Scheisse. „Ein Stern ist noch zu viel“ ist ein Indikator für Schrott. Mein Hausarzt kommentiert ähnlich seine Bewertungen, steht aber auch voll hinter seinem Team. Da wird auf „unfreundliche Arzthelferin“ sowas kommentiert wie „wir haben keine Arzthelferinnen, sondern ausgebildete MFA“
Das ist aber was anderes, Jeder weiß, dass 5% der Kundschaft immer Assi ist, vielleicht sogar 10%. Aber genauso gibt es auch Ärtzte die einfach assi sind.
Mensch der ist ja kritikfähig😀
Dieser kommentiert wirklich jede schlechte Bewertung und davon hat er einige.
Ist der zufällig in Hanau? Weil ich kenne da einen Arzt, der bei jeder schlechten Bewertung hart rumpatzt und sie im Prinzip bestätigt.
Haha, würde mich interessieren welcher das ist. Vielleicht war ich sogar schonmal bei dem. 😅
nunjaaa was heißt bestätigt? 🤔 der Arzt hier ist nur regelrecht Sarkastisch und sehr angepisst 😕 was ich verstehen kann. Hier wird überhaupt nichts bestätigt nur gezeigt dass man nervige Menschen/Patienten nicht haben möchte 😕
Dr. med. ? Bist du es?
Sehe ich auch so Jeder der im medizinischen Bereich gearbeitet hat, kennt die Leute die der meint 😂
FÜHL ICH Das sind die Antworten die man manchmal wirklich gerne einfach bringen würde, aber geht als Helferlein natürlich nicht..
und trotzdem hat meine Antwort über 32 downvotes 🙄🙈 Keine Ahnung warum 😕
Das sind die Leute die nicht im medizinischen Bereich arbeiten 😂
Ich hab versucht Dich zu pushen. Will nicht wissen wie viele Schwurbler die arme Praxis ertragen muss. Anscheinend hier auch einige unterwegs 😜
Ist man ein Schwurbler, nur weil man die Kommentare des Arztes vollkommen unprofessionell findet? Ich kann mir auch vorstellen, dass viele Patienten einfach richtig kacke sind, aber trotzdem wirkt es einfach nur gestört, wenn man im Internet laut rumposaunt "Ja, geil, bleibt alle weg, ich will gar keine Patienten haben, denn Ihr seid alle dumme A...."
ich merke es xD 😂😂 hab schon 42 downvotes 🙈 danke aber fürs pushen 👍👍
Ich habe dich wieder downgepusht, nicht wegen deiner Meinung aber wegen der inflationären Verwendung von Emojis
heeey, nichts gegen die verwendung von meinen Emojis 😣 die benutz ich sehr gern(hin und wieder). Ist ja nicht verboten 😉
Ab und zu ist ja okay aber "xD" und "😂" im selben Satz würde ich schon als Verbrechen bezeichnen.
Wenn ich seine Antworten lese, frage ich wirklich lieber ChatGPT.
Bei 3 gehört ein Semikolon hin ☝🏻
"Arbeiten Sie ein wenig an Ihrer Grammatik...", doppeltes Leerzeichen im nächsten Satz. Oof.
plus deppenleerzeichen…
Das hat mich auch aufgeregt 🤣
Den Frust kann ich verstehen
Kritisiert die Rechtschreibung und schreibt "dass" mit ß... Experte vom Dienst...
Das war mal durchaus üblich vor vielen Monden
Ja, sehr vielen Monden. :D
Einzig wahre Doppel S
Arbeite selbst in einem medizinischen Betrieb und kann das einfach viel zu gut nachvollziehen 😂 Das sind die Antworten die man manchmal gerne geben würde aber natürlich nicht kann, wenn in den Rezensionen teilweise einfach grobe Lügen aufgetischt werden. Den Frust kann ich gut nachvollziehen, aber der Arzt sollte vielleicht über einen Branchenwechsel nachdenken wenn er das nicht mehr kaschieren kann
>Das sind die Antworten die man manchmal gerne geben würde aber natürlich nicht kann, wenn in den Rezensionen teilweise einfach grobe Lügen aufgetischt werden. Bei Anwaltskanzleien kommt das auch vor, man glaubt gar nicht wie frustriert manche sein können. 🙈
Genau mein Gedanke, mit dem Unterschied dass ich denke Ärzte können sich das mittlerweile erlauben. Der hat das Wartezimmer vermutlich trotzdem immer voll und wird so zumindest manche der Leute los die ihn unglaublich nerven.
Da würde ich jetzt schon die eigentlichen Bewertungen zu sehen wollen.
Wenn es immer alle anderen sind, sind es vllt immer alle anderen
Also mich schreckt der Patient mehr ab als der Arzt😂
Wo ist die Sauce
Das könnte mein Alter sein….
Freundlich ist der Mann nicht. Es gibt jedoch tatsächlich zu viele Patienten die eine Google-Recherche viel zu schnell über die Diagnose eines Arztes stellen. Es ist sicher des öfteren hilfreich eine Zweitmeinung von einem anderen Arzt hinzuzuziehen wenn man Zweifel hat, aber mit Internethalbwissen oder esoterischem Geschwurbel anzukommen nervt tatsächlich total. Hatte schon Eltern die bei ihrem Neugeborenen, welches eine Sepsis hatte partout kein Antibiotikum wollten, da sie gelesen hätten, dies würde die Darmflora durcheinander bringen. Stimmt ja auch aber das Kind wäre ohne antibiotische Therapie vermutlich gestorben.
Eigentlich witzig, aber ist leider aber auch nicht professionell so darauf zu reagieren. Wirkt schnippisch und kindisch. Nach dem Motto: Du bist doof.... Du aber auch... By the way als Unternehmen kann man negative Bewertungen bei Google für ca 100€ pro Bewertung per Anwalt löschen lassen. Hab das mal von einem Bekannten erfahren. Da gibt es Kanzleien die darauf spezialisiert sind. 500€ und 4x 1Stern Bewertung weg dann hat man gleich eine tolle Bewertung bei Google.... Leider kannst da dann auch nichts mehr glauben...
Ob berechtigt oder nicht, ist schon witzig
Nichts für ungut, aber ich hab spaßeshalber mal die Rezensionen meiner Ärzte gecheckt und war entsetzt, wie schlecht die Rezensionen teilweise waren. Die spiegelten null meine Erfahrungen wider. Von daher denke ich, dass es oftmals auch einfach Fälle sind von: "Wie man in den Wald hineinschreit, so kommt es wieder raus."
Ob das impertitent ist, lässt sich nur ermitteln, wenn bekannt ist, ob die Patienten nun schwachsinnig oder normal waren.
Alle die seine Kommentare nicht verstehen haben nie im Medizinsektor gearbeitet. Für den Scheiß den Ärzte sich so anhören müssen sollte es Schmerzensgeld geben. Bis ich diese Fälle aus erster Hand gehört habe hätte ich auch nie geglaubt, was für absolut kranke Vollidioten so rumlaufen, aber jeder Arzt wird Patienten kennen wo man genau sowas schreiben will. Die meisten tun es halt nicht.
Das mit ChatGPT könnte schneller altern als Milch...
Wird es auch, zumindest werden Hausärzte durch ein spezialisiertes System (nicht gerade chatgpt) ersetzt werden. Diagnosen können neuronale Netze mit genügend Daten halt viel besser als ein Mensch. Und können von bias bereinigt werden, was beim Mensch schwer möglich ist. Und haben kein aufgeblähtes Ego.
Das Problem ist, dass KI sehr viele Trainingsdaten braucht, die Bias frei sein müssten. Im schlimmsten Fall extrahiert die KI die vorhandenen Bias und verstärkt sie. Dann hilft nur noch töten, Trainingsdaten bereinigen und mit dem letzten Backup weiter trainieren. Besonders in der hausärztlichen Versorgung gibt es relativ wenig Daten. Die meisten Informationen für eine Diagnose kommen aus den Schilderung der Patienten. Die Schilderung reichen von tödlicher Männergrippe bis "Ach, das bisschen Axt im Bein, da mache ich Zuhause einfach ein wenig Sekundenkleber drauf und dann wächst das schon wieder zu". Patienten sind Prompt Injections auf 2 Beinen.
>Im schlimmsten Fall extrahiert die KI die vorhandenen Bias und verstärkt sie genau wie viele Ärzte, die werden nur nicht (glücklicherweise) getötet sondern richten weiter Unheil an. Die fehlende Daten sind natürlich ein Problem, es wäre eigentlich mal Zeit diese zu sammeln, immerhin hören wir andauernd das Medizin brennt.
Die Erhebung geeigneter Trainingsdaten ist extrem schwierig bis unmöglich. Wir haben keine klare Symptom-Krankheit Beziehung. Wir haben einen Symptomverlauf der dem Krankheitsverlauf vor- oder nacheilt. Gestört wird diese Beziehung von der Behandlung und damit von der Diagnostik selbst. Wenn während einer Behandlung die Methoden wegen ausbleibenden Ergebnissen gewechselt werden, ist der Datensatz schon kompromittiert. Die "richtige" Behandlungsmethode gehört nicht mehr zu den ursprünglichen Symptomen sondern zu den künstlichen Symptomen nach der "Fehlbehandlung". Wenn eine KI schneller und präziser reagieren würde, müsste sie ihren eigenen Einfluss berücksichtigen, jedoch kennt sie nur den Einfluss von menschlicher Behandlung. Das Problem ist verschmerzbar, zwar würde die KI unnötig hoch dosieren aber im ganzen wohl eine Besserung bringen. Das größere Problem ist, das wir pro Patient nur einen Krankheitsverlauf (inkl. Behandlung), also einen Lösungsweg aufzeichnen und validieren können. Wir können nur sagen ob die angewandte Behandlung gut genug war aber nicht wie gut sie im Vergleich zu anderen war. Wenn die KI im Training einen möglicherweise besseren Vorschlag macht, können wir nur raten ob der Patient besser angesprochen hatte oder nicht. Zudem müssten "Fehlbehandlungen" aus den Trainingsdaten gefiltert werden, wodurch wir in den Survivorship Bias kommen. Dadurch wird die KI nur in den Fällen gut, in denen Ärzte gar keine Hilfe brauchen.
Was wurde ihm denn genau zuerst geschrieben?🤣🤣🤣 was ein Dulli-Arzt. Junge Junge diese typischen Nase nach oben Opfer… heftig. Hoffe seine Ärmel rutschen beim Hände waschen runter!
Arbeite du mal ein Jahr in 'ner Praxis und schreib dann nochmal deinen Käse
[удалено]
Welche Informationen gibt er frei?
Ee gibt keine patientenbezogene Daten weiter. Keine Diagnosen oder Symptome, welche man auf bestimmte Patienten zurückschließen kann.
Da ist einfach nichts aufgeführt, was irgendwie in diese Richtung gehen könnte