
OpenAI wprowadziło nowy abonament ChatGPT Pro w cenie 100 dolarów miesięcznie. Jest to odpowiedź na zapotrzebowanie zaawansowanych użytkowników, oferując pośrednią opcję między dotychczasowymi 20 a 200 dolarami. To posunięcie może być atrakcyjne dla firm poszukujących bardziej elastycznych rozwiązań AI do codziennego użytku.
Anthropic ujawnił, że ich nowy, niezwykle potężny model AI, Claude Mythos Preview (Project Glasswing), jest w stanie identyfikować tysiące luk w zabezpieczeniach systemów operacyjnych i przeglądarek. Zamiast go publicznie udostępniać, firma współpracuje z organizacjami odpowiedzialnymi za bezpieczeństwo internetu, co podkreśla dwustronny charakter AI w cyberobronie i potrzebę ostrożnego wdrażania zaawansowanych modeli.
Firmy takie jak IBM podkreślają kluczową rolę solidnego zarządzania sztuczną inteligencją w ochronie marż i zapewnieniu bezpieczeństwa infrastruktury. W kontekście wchodzącej w życie w 2026 roku Ustawy o AI Unii Europejskiej, szczególne wyzwania stoją przed tzw. agentami AI, które działają autonomicznie i wymagają przejrzystego śledzenia podejmowanych decyzji.
Giganci technologiczni, tacy jak Apple i Qualcomm, rozwijają nową generację asystentów AI z celowo wbudowanymi limitami. Ma to na celu zapewnienie bezpieczeństwa i kontroli nad ich działaniem, co sugeruje ostrożne, lecz innowacyjne podejście do wdrażania coraz bardziej autonomicznych systemów AI w codziennych zastosowaniach biznesowych i konsumenckich.
Meta, z jej ogromnymi zasobami i bazą użytkowników, kontynuuje rozwijanie modelu Llama, co znacząco wpłynęło na ruch open-source w AI. Jednakże, aby zachować konkurencyjność, firma staje przed wyzwaniem utrzymania swojej "open-source'owej tożsamości", jednocześnie tworząc modele na poziomie najlepszych rynkowych rozwiązań.
Sam Altman, CEO OpenAI, odpowiedział na doniesienia po ataku na jego dom oraz szczegółowy profil w The New Yorker, który podważał jego wiarygodność. W tym samym czasie OpenAI mierzy się z pozwem, w którym zarzuca się, że ChatGPT przyczynił się do nękania, co ponownie uwypukla rosnące wyzwania etyczne i bezpieczeństwa związane z technologiami AI w firmach.
Wzrost liczby treści generowanych przez AI, od grafik po podcasty, rodzi poważne obawy dotyczące autentyczności i wiarygodności informacji w internecie. Firmy muszą być świadome, że konsumenci coraz częściej mają problem z odróżnieniem prawdziwych treści od tych stworzonych przez AI, co ma kluczowe implikacje dla marketingu, PR i budowania zaufania.