Vorschläge aus der Maschine
Vor Kurzem ist mir mal wieder ein Beispiel über den Weg gelaufen, wie Algorithmen, die Vorschläge berechnen, die für jemanden interessant sein könnten, so richtig daneben liegen können. Das Beispiel hier ist entstanden auf Basis meiner Lesepräferenzen italienischer Kochzeitschriften… urteilt bitte selbst.
Hier geht es ja nur um den relativ harmlosen Vorschlag, welche Zeitung für mich interessant sein könnte (siehe Bild, finde den Fehler!). Das mag ja noch vergleichsweise lustig sein. Was aber ist, wenn ein ähnlich daneben liegender Vorschlag präsentiert wird, wenn man nach einem Arzneimittel gesucht hat.
Hier geht es ja nur um den relativ harmlosen Vorschlag, welche Zeitung für mich interessant sein könnte (siehe Bild, finde den Fehler!). Das mag ja noch vergleichsweise lustig sein. Was aber ist, wenn ein ähnlich daneben liegender Vorschlag präsentiert wird, wenn man nach einem Arzneimittel gesucht hat.
Das ist genau der Punkt, an dem man ansetzen muss, wenn es um die Güte von Algorithmen geht, die im Bereich der so genannten künstlichen Intelligenz eingesetzt werden. Solche Vorschlagssysteme sind eben nicht einfach nur harmlos, sondern Köln im Extremfall lebensgefährlich sein. Das kann jeder und jede mal ausprobieren, in dem man einfach in der Suchmaschine seiner Wahl nach etwa Schmerzmitteln sucht, Oder einfach nur einen entsprechendes Suchbegriff ein gibt (etwa Arthrose). Das kann insbesondere dann sehr erhellend sein, wenn mehrere Personen das auf ihrem jeweiligen Rechner machen. Ich habe das selbst, sozusagen im Selbstversuch, schon mal ausprobiert. Bei dem oben genannten Suchwort (Arthrose) sind dann doch sehr unterschiedliche Ergebnisse, die meiner Einschätzung nach schlicht am Lebensalter des Suchenden liegen, zu Stande gekommen.