Veřejné AI nástroje typu ChatGPT nebo Gemini jsou skvělé pro osobní produktivitu. Jakmile ale ve firmě začnete řešit citlivá data, řízení přístupů, dohled nad používáním a kontrolu nákladů, rychle narazíte na limity „veřejného“ chatu.
V NextMind podcastu jsme to rozebrali s Michalem Dobrovolným, který má u nás na starosti zabezpečenou AI a implementační část. Tady je čitelné shrnutí toho nejdůležitějšího z rozhovoru.
Co si představit pod „zabezpečenou AI“
Zabezpečená AI v praxi znamená, že AI prostředí běží v odděleném (privátním) cloudu klienta nebo v izolovaném projektu/tenantovi. Přístup má jen firma – a AI je nasazená tak, aby šla sladit s bezpečnostními a compliance požadavky.
- Izolované prostředí – oddělené od veřejných nástrojů a běžných uživatelských účtů.
- Řízené přístupy – kdo může AI používat a k jakým funkcím má přístup.
- Kontrola nad daty – kde jsou uložena, co se loguje, co se maže, co se smí poslat do modelu.
Nejde tedy o „lepší verzi veřejného GPT“. Je to jiný způsob provozu, který dává firmě kontrolu.
Kde jsou data? A „pamatuje si“ model něco?
Častý omyl je představa, že model funguje jako databáze. V realitě je potřeba rozlišit:
- Data a historie konverzací – typicky se ukládají v úložišti, které je součástí prostředí klienta.
- Model – pracuje s tím, co mu předáte v daném dotazu (kontext), ale „neukládá si“ firemní znalosti sám od sebe.
- Logy a audit – dají se nastavit tak, aby odpovídaly interním pravidlům (bezpečnost, auditovatelnost, minimalizace).
Zjednodušeně: vy řídíte, co do modelu pustíte, kde to leží a kdo k tomu má přístup.
Uživatelsky jako ChatGPT. Firemně úplně jinde.
Pro uživatele to může vypadat podobně jako klasický chat: jedno okno, do kterého píšete, přikládáte soubory a necháte AI udělat shrnutí nebo report.
Rozdíl je v tom, že ve firemním prostředí umíme chat napojit na data a procesy – a to je ten moment, kdy AI začne dávat skutečnou hodnotu.
Konektory a integrace: připojit lze prakticky cokoliv
Ve veřejných nástrojích často fungujete v rámci toho, co je „předpřipravené“. U zabezpečené AI je běžné stavět konektory na míru podle toho, kde firma data skutečně má:
- interní dokumentace (směrnice, postupy, produktové listy),
- datová úložiště a knowledge base,
- ERP/CRM a interní aplikace přes API.
Důležité: konektory nejsou univerzální zásuvka, ale cílené napojení tak, aby bylo bezpečné, auditovatelné a dávalo smysl pro konkrétní use-case.
Tokeny a náklady: platíte za skutečné používání, ne za „licence do šuplíku“
U zabezpečených řešení se často účtuje spotřeba (typicky přes tokeny). Token si představte jako jednotku textu – platí se za to, kolik textu model zpracoval a vygeneroval.
Pro firmy to mívá jednu velkou výhodu: místo toho, aby platily desítky nebo stovky licencí „pro jistotu“, platí jen za reálné využití. U méně aktivních uživatelů to často vychází výrazně lépe než fixní cena za každého člověka.
Jak zkrotit náklady: alerty, limity a pravidla
Nejčastější obava firem je jednoduchá: „Co když nám náklady utečou?“ Řešení je v praxi kombinace několika pojistek:
- Alerty – upozornění při dosažení definovaných hranic rozpočtu.
- Limity – například maximální velikost nahrávaných souborů.
- Omezení vstupů – lze nastavit, které typy souborů se smí nahrávat (např. jen PDF), případně další restrikce podle rolí.
Cíl je jednoduchý: AI má být užitečná, ale musí mít jasné mantinely.
Co si z toho odnést
- Zabezpečená AI není „dražší chat“ – je to kontrolované prostředí pro práci s firemními daty.
- Největší hodnota je v napojení na procesy a data, ne v samotném okně chatu.
- Náklady se dají řídit přes alerty, limity a role.
- Začněte jednoduše: bezpečný chat + první konkrétní use-casy → až potom automatizace a agenti.
Chcete to probrat na vašem konkrétním prostředí? Ozvěte se nám — navrhneme nejrychlejší cestu od „AI chatu“ k reálným úsporám a funkčním integracím.
Celý rozhovor si můžete pustit na YouTube tady: YOUTUBE VIDEO


