Zbyt ludzki chatbot szkodzi sprzeda?y. Badanie podwa?a popularny trend

Izabela Myszkowska
4 Min
?ród?o: Freepik

Coraz mniej zaskakuje nas to, ?e po drugiej stronie czatu mo?e nie by? cz?owieka. Jednak sposób, w jaki chatbot udaje cz?owieka — albo celowo tego nie robi — mo?e radykalnie zmienia? skuteczno?? jego dzia?ania. Nowe badanie z Uniwersytetu Wisconsin-Milwaukee prowokuje do przemy?lenia dominuj?cego paradygmatu projektowania „ludzkich” botów.

Zebrane dane pokazuj?, ?e w okre?lonych zastosowaniach, takich jak sprzeda? czy zbieranie datków, bardziej neutralny, „maszynowy” charakter AI mo?e by? bardziej efektywny ni? bot ubrany w ludzkie gesty i emocje. To zaskakuj?ce, bior?c pod uwag? rosn?ce inwestycje firm w rozwój tzw. empatycznych interfejsów.

Zbyt ludzki bot zani?a cen?

Scott Schanke, ekonomista i badacz komunikacji cz?owiek–maszyna, przetestowa? ró?ne typy chatbotów w kontek?cie sprzeda?y odzie?y z drugiej r?ki. Niektóre z nich by?y suchymi, faktograficznymi automatami, inne mia?y imiona, robi?y pauzy i ?artowa?y. Wynik? Antropomorficzne boty cz??ciej prowokowa?y u?ytkowników do targowania si?. Z punktu widzenia sprzedawcy oznacza to obni?enie mar?y i mniej korzystne transakcje.

U?ytkownicy intuicyjnie odczytuj? „ludzki” interfejs jako zaproszenie do negocjacji, czyli do zachowa? typowych dla relacji mi?dzyludzkich. To spostrze?enie mo?e mie? istotne znaczenie nie tylko dla e-commerce, ale tak?e dla sektora us?ug czy obs?ugi klienta, gdzie skracanie dystansu z klientem nie zawsze przynosi wymierne korzy?ci.

Emocjonalna przesada? Uwaga na darczy?ców

Jeszcze bardziej przewrotny efekt pojawi? si? w eksperymencie dotycz?cym zbierania datków na cele spo?eczne. Gdy chatbot organizacji non-profit w Minneapolis zbyt mocno udawa? emocjonalnego rozmówc?, skuteczno?? kampanii spada?a. Darczy?cy mniej ch?tnie otwierali portfele, gdy AI – zamiast informowa? – próbowa?o wzbudzi? wspó?czucie.

To wyra?ny sygna?, ?e kontekst emocjonalny nie lubi przesady. Tam, gdzie odbiorca jest ju? zaanga?owany emocjonalnie, dodatkowe „ciep?o” ze strony maszyny mo?e zosta? odebrane jako manipulacja. W czasach rosn?cej ?wiadomo?ci konsumenckiej i nieufno?ci wobec automatyzacji, to niepokoj?cy efekt.

Klony g?osu – technologia na granicy etyki

Najbardziej futurystyczna cz??? badania dotyczy?a botów, które nie tylko mówi?y jak cz?owiek, ale potrafi?y na?ladowa? konkretny g?os u?ytkownika. Mimo ?e uczestnicy eksperymentu byli informowani, ?e chatbot nie jest wiarygodnym ?ród?em, to… i tak mu ufali, je?li mówi? ich w?asnym g?osem.

Ta technologia, cho? fascynuj?ca, budzi oczywiste w?tpliwo?ci etyczne. W dobie deepfake’ów i manipulacji medialnych, mo?liwo?? podszywania si? pod czyj? g?os to bro? obosieczna. Mo?e poprawi? skuteczno?? kampanii marketingowej, ale równie dobrze pos?u?y? do oszustw czy dezinformacji. Dlatego komercjalizacja takich rozwi?za? b?dzie musia?a i?? w parze z nowymi regulacjami i kontrol? nad wykorzystaniem danych g?osowych.

Projektowanie botów zale?ne od kontekstu

Z bada? Schankego p?ynie jednoznaczny wniosek: skuteczno?? chatbotów nie zale?y od tego, jak bardzo przypominaj? cz?owieka, lecz od tego, w jakim kontek?cie s? wykorzystywane. W sprzeda?y bardziej op?aca si? ch?odna, rzeczowa maszyna ni? mi?y „asystent”. W kampaniach charytatywnych – prostota i informacja lepiej dzia?aj? ni? emocjonalne komunikaty. A tam, gdzie stawk? jest zaufanie, na?ladowanie g?osu u?ytkownika mo?e by? skuteczne, ale kosztowne moralnie.

To cenne wskazówki dla projektantów i firm, które stawiaj? na automatyzacj? komunikacji. Nadawanie botom ludzkich cech nie powinno by? domy?lnym wyborem – powinno by? ?wiadom? decyzj? uzale?nion? od celu, bran?y i typu relacji z u?ytkownikiem.

Zamiast empatii – strategia

Technologie konwersacyjne wchodz? w now? faz? rozwoju. Lata 2020–2023 przynios?y wzrost inwestycji w human-like AI, ale jak pokazuje badanie Schankego – przysz?o?? chatbotów mo?e le?e? nie w tym, by by?y bardziej ludzkie, ale m?drze zaprojektowane. Czas porzuci? uniwersalne szablony i zacz?? my?le? o botach jak o narz?dziach – które, jak ka?de inne, trzeba dopasowa? do kontekstu u?ycia.

Udostępnij