14.08.2014

Wie Roboter uns im Chat manipulieren werden

Marketing mit selbstlernenden Systemen

Der Cleverbot (blau) hat mit unserem Azubi (schwarz) ein Date.
Erschre­ckend mensch­li­ch: Der Cle­ver­bot (blau) hat mit unse­rem Azu­bi (schwarz) ein Date. Cleverbot.com

„Chat­bots bie­ten eine idea­le Platt­form, über die Mar­ken poten­zi­el­le Kun­den unbe­merkt mani­pu­lie­ren kön­nen. Sie kön­nen unter­hal­ten, aber auch infor­mie­ren.“

So beschreibt Chris­to­pher Mims in sei­nem Arti­kel „Wie Chat­bots die Wer­be­in­dus­trie revo­lu­tio­nie­ren“ auf t3n eine neue Mar­ke­ting-Metho­de, die sich den Chat­bot (=Robo­ter, der auto­ma­ti­siert Gesprä­che mit Nut­zern führt) als Ver­triebs­ma­schine zu Nut­zen macht.

Die Idee des Chat­bots ist bereits Jahr­zehn­te alt. Neu zum „spre­chen­den Com­pu­ter“ hin­zu­ge­kom­men ist jedoch die Fähig­keit, aus Gesprä­chen zu ler­nen, sich auf den Gesprächs­part­ner ein­zu­stel­len und wie ein intel­li­gen­ter Gesprächs­part­ner auf­zu­tre­ten. Ein Chat­bot kann sich Mil­lio­nen Men­schen gleich­zei­tig wid­men. Laut Betrei­ber des Chat-Diens­tes Kik sind bereits heu­te schon 40% der ame­ri­ka­ni­schen Teen­ager auf die­ser Platt­form Kik regel­mä­ßig mit Chat­bots im Gespräch. Welt­weit sind allein durch Whats­App über 500 Mil­lio­nen Men­schen in der Lage, mit einem Chat­bot zu spre­chen.

Im Mar­ke­ting soll der Chat­bot lang­fris­tig aus einer toten Mar­ke einen leben­den, fik­ti­ven Ansprech­part­ner für Sym­pa­thie und Kon­takt erschaf­fen, dem sich Mar­ken­fans anver­trau­en kön­nen, bei dem sie sich gebor­gen und wohl füh­len. Eine emo­tio­na­le Bin­dung soll her­ge­stellt wer­den. Dass dabei der mensch­li­che Gesprächs­teil­neh­mer je nach Lau­ne und Äuße­run­gen im Gesprächs­ver­lauf vom Chat­bot gezielt sub­ti­le Wer­bung oder Pro­dukt­vor­schlä­ge zuge­scho­ben bekommt, ist wirt­schaft­li­ch gese­hen sicher­li­ch geni­al, mora­li­sch betrach­tet jedoch eher frag­wür­dig, wird doch dem arg­lo­sen „Mar­ken­fan“ schluss­end­li­ch von einem Robo­ter unter­schwel­lig dik­tiert, was er zu tun, was er zu mögen und was er zu kau­fen hat.

Neben dem mora­li­schen Aspekt gibt uns ein ande­rer Fakt noch viel mehr zu den­ken: die Fähig­keit, selbst­stän­dig zu agie­ren und zu ler­nen könn­te je nach Lern­er­fah­run­gen der Soft­ware auch zur Über­win­dung der ein­pro­gram­mier­ten Ver­hal­tens­re­geln füh­ren – zwei­fel­los mit ver­hee­ren­den wirt­schaft­li­chen Fol­gen für das betrof­fe­ne Unter­neh­men. Selbst, wenn der Feh­ler nach weni­gen Minu­ten beho­ben wür­de, hät­ten ihn in die­ser Zeit je nach Grö­ße des betrof­fe­nen Unter­neh­mens bereits meh­re­re Mil­lio­nen Men­schen mit­be­kom­men. Zum Arti­kel auf t3n

Kontaktieren Sie uns!


captcha

0800 321 2008 (kostenfrei!)

Kommentieren