#19 FabCon Poland 2026 - moje obserwacje z drugiej edycji
BLOGPOWER BIFABRICTECHAI
Sebastian Jagniątkowski
5/3/2026
FabCon (Fabric Conference) to cykl wydarzeń organizowanych przez społeczność i partnerów Microsoftu, poświęconych platformie Fabric i całemu ekosystemowi analitycznemu. Z kolei FabCon Poland to inicjatywa OnexGroup, organizowana w warszawskiej siedzibie Microsoftu. To tak zwane re-delivery ogłoszeń z globalnego FabCon, a że między obydwoma wydarzeniami mija trochę czasu, to oznacza, że część funkcjonalności, o których mowa w materiałach z wydarzenia, zdążyła już wejść w życie. Jak dobrze wiemy, Microsoft regularnie wypuszcza aktualizacje i to co na scenie w Atalancie wyglądało jak "zapowiedź", dziś możemy już mieć dostępne do pracy w wersji General Availability lub Preview. Samo wydarzenie koncentruje się właśnie przede wszystkim na omawianiu najświeższych nowości oraz tych funkcji, które dopiero nadchodzą.
To nie jest typowa konferencja w stylu "prelekcje o trickach w Power BI". Tutaj chodzi o kierunek zmian w całej platformie. Przedstawiciele firm, dyrektorzy działów analiz i analitycy przyjeżdżają po to, żeby dowiedzieć się, co Microsoft planuje, jaki jest kierunek zmian, tak aby móc reagować możliwie szybko. Wszystkim zależy, aby być jak najbliżej źródła informacji, a dodatkowo to również okazja do networkingu i podzielenia się spostrzeżeniami z wdrożeń konkretnych rozwiązań w swoich organizacjach.
Byłem już po raz drugi. I znów warto było. Zanotowałem 6 kluczowych obserwacji, którymi chciałbym się z Wami podzielić. Tutaj, na blogu, rozwijam każdą z nich i dorzucam kilka rzeczy ekstra, które nie zmieściły się do posta, a moim zdaniem są równie istotne.
🔑 Power Query to solidny punkt wejścia do branży
Power Query w świecie nowoczesnej analityki ma się świetnie i wydaje się, że będzie tylko zyskiwać na znaczeniu. Na tle Pythona, SQL-a czy DAX-a może nie robić aż tak dużego wrażenia, ale w środowisku Fabric gra coraz ważniejszą rolę. Staje się wspólnym językiem między analitykiem, inżynierem danych a użytkownikiem biznesowym. Power Query jest na tyle przystępne, że każda z tych grup może z niego korzystać i to na różnych poziomach zaawansowania.
Filar ETL w Fabricu to oczywiście Dataflows Gen2, czyli Power Query z turbodoładowaniem: ten sam znajomy interfejs, ale ze skalą obliczeniową Fabric, wbudowanymi AI Transforms w języku naturalnym i możliwością zapisu wyników bezpośrednio tam, gdzie ich potrzebujesz (od Lakehouse i Warehouse, po SQL Database czy nawet Snowflake). Do dyspozycji masz ponad 170 wbudowanych konektorów, obsługę Fabric Variable Libraries (wcześniej filtrowanie było możliwe tylko po parametrze tworzonym wewnątrz PQ, co teraz to się zmieniło) i wciąż rozbudowywane są możliwości transformacji.
Wdrożoną już jakiś czas temu i wciąż wartą wyróżnienia perełką jest tabela z przykładów. Możemy ją wykorzystać do obrobienia danych ze źródła internetowego. Wystarczy wskazań kilka reguł (podobnie jak przy "kolumnie z przykładów"), otrzymamy pełen zestaw kroków transformacji w języku M, bez konieczności ręcznej konfiguracji. To dobry przykład źródła danych, które bywa kapryśne - co strona www to inne formatowanie, układ, umiejscowienie danych. Dzięki Power Query zbędne stają się bardziej zaawansowane techniki scrapowania danych.
Jeśli Twoje domyślne środowisko to Power BI Desktop, koniecznie przyjrzyj się bliżej wstążce w Power Query. Od jakiegoś czasu znajduje się tam skrót umożliwiający przeniesienie całej logiki zapytania do Dataflow Gen2. Jedno kliknięcie i Twój lokalny ETL trafia do chmury. Taka operacja wymaga licencji Fabric, ale jeśli ją masz, to spora oszczędność czasu przy migracji logiki z Desktop do środowiska Fabric - co znowu podkreśla uniwersalność Power Query.
🤖 Nadchodzi era AI Agentów - ale najpierw uporządkujmy dane
Ten nagłówek, to w zasadzie keynote całego wydarzenia, a jedno zdanie, które wyjątkowo mocno wybrzmiało: "You must empower your agents with the same knowledge and context as your employees". Brzmi prosto, ale realny wpływ na rzeczywistość jest ogromne. Bez dobrego przygotowania danych i nadania im kontekstu, agent będzie działał jak pracownik bez onboardingu.
I tu pojawia się realne wyzwanie: większość organizacji nie ma jeszcze danych w kształcie gotowym do zasilenia agentów. Ontologia to nie buzzword (choć może brzmieć Ci jeszcze kompletnie obco). Możliwości jakie daje Fabric IQ, to wspólny język biznesowy, który pozwala agentowi rozumieć, że "przychód" w systemie finansowym i "revenue" w CRM to to samo, dodatkowo podrzucając wyjaśnienie jak nasza organizacja oblicza takie wskaźniki. Przykład jest banalnie prosty, ale tak to działa. Bez rozbicia korporacyjnej wiedzy na części pierwsze agent będzie improwizował, a jak to się dotychczas kończyło wiemy. Internet jest pełen treści o AI, jak i memów o AI w roli głównej. 😅Teraz ma być już tylko lepiej.
Dość istotne jest, że Data Agenci przeszli w etap GA. Szczerze? Poszło bardzo szybko. Można ich tworzyć z poziomu promptów, bez kodowania: podajesz cel, instrukcje, źródła wiedzy i oczekiwane akcje. Choć na tę chwilę do jednego agenta można aktualnie podpiąć 5 źródeł danych, to nic nie stoi na przeszkodzie, żeby budować coś na wzór rady kooperujących ze sobą agentów. Jeden wie o finansach, drugi o logistyce, a trzeci koordynuje pozostałych. Wielowarstwowa architektura agentów zaczyna mieć sens.
🎨 Wizualizacje przestają być przewagą - teraz króluje model danych
Jeszcze kilka lat temu ładny i dopieszczony wizualnie raport był realną przewagą. Dziś poprzeczka domyślnych ustawień poszła mocno w górę. FabCon pokazał Modern Visual Defaults (na ten moment w Preview). Nowe raporty startują ze odświeżoną stylistyką (Fluent 2, o której wspominałem przy wpisie z poprzedniego miesiąca), sensownymi paddingami, szarym tłem i domyślnie włączonymi napisami. Przyświeca temu jeden cel - raport na starcie ma wyglądać porządnie, bez godzin siedzenia przy Format Pane. Do tego Copilot jest w stanie wygenerować całkiem zgrabny wykres w kilka sekund, a w połączeniu z delikatnie odświeżoną stylistyką wypada on jeszcze lepiej.
Co to oznacza w praktyce? Mniej czasu spędzisz na dopieszczaniu wyglądu, a więcej na modelu danych, logice biznesowej i rozumieniu tego, co dane mają powiedzieć (storytelling). Czas zaoszczędzony na formatowaniu możesz przeznaczyć na to, żeby Twój model był naprawdę dobry. I właśnie dlatego coraz częściej myślę, że w dobie AI Agentów, rosnącego w siłę Copilota, wizualne "dłubanie" przy raportach staje się coraz mniej istotne, bo te w połączeniu z ciekawym motywem kolorystycznym domyślnie wyglądają już nie najgorzej. To stąd pomysł na tytuł tego akapitu.
📊 Dobre wieści dla planistów - Lumen wchodzi do Fabrica
Choć nie wspominałem o tym w poście na IG, to dla mnie jedna z ciekawszych zapowiedzi tej edycji FabCon. Microsoft ogłosił cały komponent "Planning in Fabric", który ma napędzać procesy budżetowania i tworzenia forecastów ze wsparciem writeback do Fabric SQL. Całość zasilana przez Lumel. Nazwa brzmi znajomo? Lumel to firma, która dotychczas tworzyła swoje własne rozwiązanie w tym zakresie, a teraz w ramach licencji Fabric zyskujesz do tego dostęp.
W skrócie: modelujesz budżety i prognozy z poziomu raportu Power BI, te dane trafiają bezpośrednio do Fabric SQL, a następnie AI wesprzeć Cię w analizach przeszłości i prognozować przyszłość. Sporą zaletą jest to, że warstwa semantyczna jest wspólna dla celów, planów i danych rzeczywistych. Nie ma potrzeby dzielenia tego na wiele systemów. Jeśli na co dzień masz do czynienia z forecastami finansowymi i do tej pory żonglowałeś Excelem, Power BI i jakimś ERP w osobnych silosach, ta integracja będzie dla Ciebie kluczowa. Swoją drogą widzę też potencjalne możliwości zastosowania write back oferowanego przez Lumel (ze względu na dużą elastyczność tego narzędzia) także na projektach niezwiązanych z forecastowaniem/budżetowaniem.
✍️ Łatwiejsze wprowadzanie danych z poziomu raportu
Tutaj wchodzimy w świat Translytical Task Flows, które w marcu 2026 osiągnęły GA (pisałem o tym w podsumowaniu marcowego update'u). Na konferencji zaprezentowano krótkie demo z tej funkcjonalności, gdzie użytkownik zmienia status projektu, dodaje notatkę i komentarz - wszystko wprost z poziomu raportu Power BI, a zmiana trafia do bazy i generuje notyfikację w Teams. Zero przełączania między aplikacjami. it's as simple as that!
Technicznie pod Translytical Task Flows (swoją drogą masakryczna nazwa🤯) siedzą Fabric User Data Functions oraz Fabric jako miejsce zapisu (SQL DB / Lakehouse / Warehouse). Do pełni działającego rozwiązania potrzebujesz jeszcze Input Slicera. Konfiguracja wymaga sporo wysiłku, testów i nie jest to zdecydowanie rozwiązanie dla początkujących, jednak zaaaaacznie upraszcza walidację i zbieranie inputu od użytkownika. Dzięki TTF raport przestaje być statycznym widokiem, a w połączeniu z formatowaniem warunkowym dostajemy fajne możliwości sygnalizowania statusu pól.
🎡 Fabric jako wesołe miasteczko i problem z tokenami
Ten punkt był mocno podkreślany i warto go przytoczyć raz jeszcze, bo takie postawienie sprawy ułatwia zrozumienie mechanizmów wewnątrz Fabric, tym bardziej, że własnie koszty są główną obawą organizacji względem tej platformy. A więc do rzeczy: Capacity w Fabricu działa jak pula żetonów, gdzie każda operacja (odświeżenie datasetów, korzystanie z AI, wysłanie query) kosztuje CU. Pula jest "use or lose it", czyli niezużyte tokeny nie przechodzą na następny dzień.
Gdy zaczyna ich brakować, pierwsze co przychodzi na myśl? Potrzebujemy więcej żetonów. Jednak to co wybrzmiało na konferencji i było mocno podkreślane: problem często nie polega na tym, że Capacity jest za małe - polega na tym, że nie wiemy, jak zużywamy zasoby. Wcale nie trzeba wiele, aby do limitów dotrzeć, wystarczy scenariusz znany nam wszystkim: poniedziałek rano, wszyscy odświeżają wszystkie dashboardy naraz i nagle wydajność mocno spada, a cały system staje się nieprzewidywalny. Innym razem ktoś wpadnie na pomysł tworzenia AI Agentów, a gdy ich skala wymnie się spod kontroli, wszystkie inne operacje w ramach Capacity będą spowalniane lub zatrzymywane. Jedynym sposobem na przewidywalność jest izolacja i wydzielenie zasobów pod konkretne projekty. Na konferencji zaprezentowano SQL pools (dotyczą tylko Warehouse i SQL Endpoints), które dodatkowo mogą wesprzeć ten proces.
🔧 Kilka rzeczy spoza głównego nurtu, które warto zanotować
W tym puncie będzie mowa o rzeczach, które nie wyszły na pierwszy plan tego wpisu, ale uważam, że warto o nich chociaż wspomnieć:
Nadchodzi Observability dla Data Agentów! Otrzymamy dedykowaną platformę do monitorowania działania agentów. Znajdą się tam logi zapytań, zestawienie wykonanych działań wraz z opisem jaka była logika decyzyjna i kto zatwierdził ostateczną akcję. Dla osób, które martwią się audytem i governance AI, to bardzo ważna informacja.
Terraform jako opcja programistyczna do konfiguracji środowisk analitycznych. Dobra informacja dla Data Freaqów oraz wszystkich fanów Infrastructure as Code, którzy nie chcą klikać w UI np. przy onboardingu kolejnych workspace'ów.
Recycle Bin na poziomie workspace! Serio! To będzie game changer ratujący tyłki z opałów 😅Recycle Bin będzie zawierał artefakty usunięte do 90 dni wstecz, ale dokładny zakres będzie konfigurowalny w Admin Portal. Brzmi banalnie, ale komu nie zdarzyło się przez omyłkę czegoś czegoś usunąć... Teraz będziemy spać spokojniej. 😄
Selektywny branching w Git - to możliwość wysłania do repo tylko wybranych artefaktów, a nie całego workspace'u naraz. Przydatne dla tych, którzy pracują z wieloma projektami w jednym workspace. Do tego możliwość podglądu zawartości commitu przed pushem. W końcu się doczekaliśmy!
Limit output agenta wzrośnie z 25 do 1000 wierszy - przy tabelarycznych odpowiedziach ma to ogromne praktyczne znaczenie. Bywało, że z tak małego zestawienia wyników trudno było dokonać weryfikacji poprawności zwróconych danych.
Agenci zyskają elastyczność źródeł danych - wkrótce będą mogli łączyć z się nie tylko z Eventhouse, ale też z Lakehouse i Warehouse, włącznie z danymi w mirroringu. Dzięki czemu nie będzie trzeba aż tak bardzo kombinować z danymi zasilającymi agentów. Co prawda do jednego agenta obecnie można wpiąć tylko 5 źródeł danych, ale być może i to ulegnie jeszcze zmianie - na ten moment pozostaje nam budowanie bardziej dedykowanych agentów i łączenie ich w sieci decyzyjne pod konkretne zadania.
✅ PODSUMOWANIE
Wśród wszystkich tych ogłoszeń między wierszami można wyczytać jeden główny komunikat: Fabric ma być jednym środowiskiem do wszystkiego. Miejscem tworzenia ETL, modelowania, pracy z AI, write-backu i zarządzania agentami. Będzie coraz mniej skakania między narzędziami, coraz więcej integracji pod jednym dachem. Co z innych obserwacji? Zmiany są bardzo szybkie, czasem wręcz ekspresowe. To co jeszcze przed momentem było w Preview, już wchodzi w fazę GA. Z pewnością nie każda funkcja jest game changerem, lecz w ogólnym trendzie widać przyśpieszenie ze strony Microsoft w obszarze Business Intelligence. To jak? Widzimy się na trzeciej edycji FabCon Poland? Myślę, że tak. 🤠
Zajrzyj także na mój profil na Instagramie oraz LinkedIn, gdzie znajdziesz więcej moich treści. 😊
Sprawdź też inne wpisy na moim blogu: [LINK]
