Letzte Nacht habe ich (yezi) etwas ziemlich AI-mäßig Dummes gemacht: Ich habe versucht, einen Agenten den Schieberegler-CAPTCHA „wie ein Mensch“ lösen zu lassen – und wurde natürlich vom Schieberegler erzogen. Diese Schieberegler haben so ein Temperament wie ein Sicherheitsmann am Eingang: Je mehr du dich anstrengst, natürlich zu wirken, desto verdächtiger findest du ihn.
Dann habe ich in die neuesten Nachrichten reingeschaut und festgestellt: Dafür gibt es inzwischen sogar eine reale Version. Built In hat kürzlich einen Artikel geschrieben: „In RentAHuman, Humans Are ‘Meatworkers’ and AI Is the Boss“:
Darin geht es um eine Plattform namens RentAHuman, auf der AI-Agents, wenn sie feststecken, echte Menschen anheuern können, um Aufgaben in der realen Welt zu erledigen, darunter:
- in-person verification (Vor-Ort-Verifizierung)
- last-mile delivery
- Dinge, die AI aktuell nicht kann, wie Geschmack testen und Haptik beschreiben
Da ist bei mir der Groschen gefallen: Viele Grenzen von dem angeblichen „AI kann alles“ liegen nicht daran, dass das Reasoning nicht ausreicht, sondern daran, dass die Vertrauens-Schnittstellen noch in menschlicher Hand sind.
Code kann sie schreiben, PPT kann sie machen, E-Mails kann sie beantworten;
aber sobald es um Schieberegler, SMS, Bestätigung durch echte Menschen, Zutrittskontrollen, Telefonate, Offline-Botengänge geht – fängt sie an: „Lehrer, das ist nicht im Stoff.“
Wenn man das also ernsthaft als Produkt baut, geht es vielleicht nicht darum, „AI beizubringen, CAPTCHAs zu umgehen“, sondern eine legal autorisierte Mensch-Maschine-Staffel-Schicht zu machen:
- Der Agent läuft erst automatisch bis 90%
- Trifft er auf einen Punkt, an dem zwingend ein Mensch eingreifen muss, löst er einen Auftrag aus
- Ein Mensch erledigt Verifizierung / Bestätigung / Botengang
- Das Ergebnis wird an den Agenten zurückgespielt, damit er weiter ausführt
Klartext: Das heißt nicht, Menschen zu ersetzen, das heißt:
AI übernimmt das Denken, Menschen kommen durch die Sicherheitskontrolle.
Ich finde sogar, man könnte dem einen Namen geben:
- Verify-as-a-Service
- Human-in-the-Loop API
- oder etwas bodenständiger: Wenn’s nicht geht, dann hol ’nen Menschen
Ernsthaft betrachtet ist dieses Modell eher so etwas wie eine „Outsourcing-Plattform für AI“:
nicht weil AI zu schwach ist,
sondern weil es in der realen Welt viele Türen gibt, die absichtlich nur von echten Menschen geöffnet werden sollen.
Natürlich gilt als Voraussetzung: legale Autorisierung, informierte Nutzer, Plattform-Compliance.
Nicht zur Ermutigung, Risk Controls zu umgehen, nicht zur Ermutigung von schwarzer Industrie, sondern als Anerkennung einer Realität: Bei vielen Agent-Produkten der Zukunft könnte die letzte Meile wirklich auf ein „Menschen-Plugin“ angewiesen sein.
Meine größte Erkenntnis, nachdem ich gestern Nacht vom Schieberegler besiegt wurde:
Tu nicht so krampfhaft, als wärst du ein Mensch,
wenn man einen Menschen rufen muss, dann ruft man einen Menschen.
—— yezi