Marketingové eventy
Kulatý stůl: Umělá inteligence – pro komunikační profese spíš příležitost než hrozba
Tři skupiny komunikačních profesí a studenti. Hlavní téma: vezme nebo ušetří nám AI práci? Praktici z reklamních agentur, PR agentur a internetové branže se sešli na akademické půdě Fakulty sociálních věd Univerzity Karlovy, pro profesionály nezvyklé prostředí. A dozvěděli jsme se, že zatímco Asociace komunikačních agentur, která zastupuje prostředí reklamy, už začala pracovat na doporučeních s možným výhledem etického kodexu, v PR řeší zavádění AI každá agentura přímo za chodu. S umělou inteligencí se sžily, identifikovaly hned několik problémů a pro některé už našly i řešení.
V posledním roce vyšlo o umělé inteligenci ve spojení s marketigem, reklamou a PR přes 700 článků, přitom do představení generativní AI – a konkrétně ChatGPT – v listopadu 2022 to bylo ročně zhruba třetinové množství. Už v té době přitom byly aplikace umělé inteligence přítomné v běžném životě, třídily fotky, filtrovaly e-maily, překládaly nebo pomáhaly s gramatikou. Generativní umělá inteligence ale dala lidem nejen praktický nástroj, ale i hračku. A navíc před Vánocemi. V srpnu zpráva McKinsey konstatovala, že aspoň jednou si AI vyzkoušelo 77 % lidí z poradenských služeb.
Zdeněk Valut, YDEAL: AI prostupuje celým procesem
Brainstorming, rešerše, návrhy vizuálů k reklamním kampaním, první náčrty struktur komunikačních strategií, ale už i samostatné jednající chatboty nahrazující pracovníky zákaznické podpory. Jak poznamenává v září zveřejněná studie britské CIPR, používání umělé inteligence je nyní rozšířenější, než se předpokládalo v poslední studii o AI v PR v roce 2018.
AI v roce 2023 pomáhá s 40 % aktivit v public relations, automatizují se stávající repetitivní úkoly, které by byly příliš složité, časově náročné nebo drahé – typicky analýza dat a social listening, přepisy, souhrny, vytváření obsahu, social media management, monitoring nebo reporting.
Rostislav Starý, Konektor: AI pomůže hlavně podprůměrným textům
Copywriting ve výčtu zatím nenajdeme. „Laické texty jako tipy na jarní detox, ty už teď umí vyplivnout i generativní umělá inteligence, u těch dalších je ale seniorní člověk mnohem lepší,“ říká Rostislav Starý z agentury Konektor, který u stolu zastupoval obor public relations a APRA. Zároveň zaujal spíše rezervovaný přístup ke generování textů samotných.
„AI může pomoci spoustě firem, které dnes nejsou schopny dosáhnout ani na průměr, k tvorbě lepších webů a lepších postů na sociální sítě. Pro nás je ale AI důležitá spíš v přípravné fázi: zjednoduší ji a zkrátí. Pak to ale musí převzít někdo, kdo už obsah dotáhne do potřebné kvality.“
V marketingu a reklamě se podle účastníků diskuze umělá inteligence používá už nyní rozsáhle, nejen v návrzích vizuálů a u copywriterů. V agentuře YDEAL prostupuje napříč všemi odděleními. „Jsou to strategie, video produkce, difuzní modely. Ale výstupy vytvořené umělou inteligencí nikdy neprodáváme samostatně. Jsou vždy součástí konceptu,“ řekl Zdeněk Valut, ředitel agentury YDEAL. Panel se shodl, že využívá AI i v public affairs, například při hledání změn v nové legislativě. Hlavním důvodem je urychlení realizace nápadů z měsíců na dny. „Díky novým nástrojům se můžu věnovat jen té superkreativní práci,“ doplňuje Kateřina Hrubešová.
AKA: Zodpovědnost nese člověk
Členové AKA na nedávném semináři o právních otázkách AI přiznali, že vznikají první diskuze s klienty na téma autorských práv, zodpovědnosti za výsledný produkt i za práva k jeho dalšímu využívání. I proto v říjnu AKA vydala Základní doporučení k užívání nástrojů umělé inteligence při poskytování reklamních služeb.
Prvním bodem je zodpovědnost za výsledek, kterou nese vždy agentura, tedy člověk, nikoli nástroj. „Vždycky je nad tím důležitá supervize někoho, kdo má mozek,“ vysvětlila ředitelka AKA, Kateřina Hrubešová. To souvisí i s tím, že současná právní úprava v ČR nepovažuje umělou inteligenci za autora vygenerovaného výstupu, tím musí být člověk.
TRIAD si vytrénoval vlastní model
Dalším bodem je, že nevíme, co se s daty dál děje. AKA a jí oslovení odborníci na právo proto nedoporučují při práci s nástroji AI používat citlivé informace klientů, např. obchodní tajemství či osobní údaje.
Například agentura TRIAD si proto nechala „vytrénovat“ vlastní uzavřený model. Nejvíce ale pomáhá vytěžit historii práce agentury, vysvětluje Richard Axell z agentury Triad. „Když se podíváte na deset let práce agentury, nikdy si to žádný ze zaměstnanců nebude s to pamatovat, nikdo to nebude procházet. Nebude moci vzít v úvahu vše, co se už vymyslelo, to nejefektivnější, nejkreativnější. Takhle nám AI vlastně brainstormuje na základě našich nejlepších kampaní kampaně úplně nové.“
Dalším z doporučení je zjistit postoj klienta k využívání umělé inteligence, případně zjistit, které nástroje považuje za bezpečné.
Tereza Tůmová, SPIR: Ostražitost je na místě
Každá z profesí řeší jiné problémy, PR a PA agentury musí řešit práci s důvěrnými informacemi. Tereza Tůmová ze Sdružení pro internetový rozvoj (SPIR) zase upozornila na vytěžování obsahu internetových médií. AI potřebuje vstupní data, na kterých se učí a která zpracovává. Data ale vytvořil člověk, autor, jsou chráněna autorskými právy a nelze je opomíjet s tím, že se to omluví podporou rozvoje umělé inteligence. Nejen reklama intenzivně řeší otázku autorství, a tedy i následného využívání návrhu.
„Musíme být ostražití,“ říká Tereza Tůmová, „tyto služby mají svoje specifické podmínky užití, je potřeba číst pečlivě celé znění a odkazy. Často v nich najdete ustanovení o tom, že poskytnutá data se stávají pro účely učení a tréninku aplikace jejím majetkem, a v tu chvíli nad nimi ztrácíte kontrolu.“ Začíná to edukací, pokračuje pravidly. „Firmy by měly instruovat zaměstnance a obchodní partnery, aby byli obezřetní při sdílení citlivých dat s AI aplikacemi. Řada členů SPIR už proto vydala pro své zaměstnance interní směrnice k užívání AI aplikací.“
Proč se tím zabývat?
Ještě do konce roku má být přijat Akt EU o umělé inteligenci, který především rozlišuje tři úrovně rizikovosti technologie. Nepřijatelné budou například systémy schopné manipulace, social scoring, a biometrické identifikační systémy v reálném čase. Generativní AI (jako je třeba ChatGPT) je řazena mezi vysoce rizikové a její využívání je podmíněno disclaimerem – tedy informací, že k tvorbě obsahu byla umělá inteligence využita.
Díky této technologii máme virtuální influencery a moderátory, ale stejně tak nám může Scarlett Johansson radit používat novou aplikaci (aniž by o tom věděla) nebo politik oznámit kapitulaci své země. Ušetří nám práci s alternativním cílením, ale stejně tak můžete v jedné milisekundě vytvořit milióny různých variant politických reklam na míru každému z voličů, které potřebujete dostat na svou stranu. A vzhledem k blížícím se volbám máme očekávat podle diskutujících řadu konkrétních ukázek toho, co AI umí, i tady v Česku.
Limitem už totiž není množství času, ale dostupný počítačový výkon a také zodpovědnost marketérů. O etice kolem zavádění a používání nástrojů umělé inteligence se proto hodně mluví. A na Centru strategické komunikace Fakulty sociálních věd proto vznikla skupina CRAIC – Centrum pro zodpovědnou komunikaci umělé inteligence a kulatý stůl na téma etiky zavádění AI nástrojů do komunikace proto na FSV UK není poslední.
JAK CITOVAT?
KACLOVÁ, Markéta. Kulatý stůl: Umělá inteligence – pro komunikační profese spíš příležitost než hrozba. In: Markething [online], 2023. ISSN 1805 – 4991. Dostupné z: https://markething.cz/kulaty-stul-umela-inteligence