
W życie wchodzą kluczowe przepisy AI Act 2025 – nowe wymogi nadzoru nad systemami AI od sierpnia 2025
Posted in :

Od 1 sierpnia 2025 r. w całej Unii Europejskiej zaczną obowiązywać przepisy określające ramy nadzoru nad systemami sztucznej inteligencji (AI). AI Act 2025. To moment przełomowy dla zarządców nieruchomości i operatorów Facility Management. Od teraz każde narzędzie BMS, IoT czy AI klasyfikowane jako „wysokiego ryzyka” będzie musiało spełniać nowe wymogi certyfikacyjne i raportowe, co w konsekwencji przełoży się zarówno na zwiększone OPEX jak i CAPEX.
Co się stało?
Po pierwsze, 24 miesiące po publicznym ogłoszeniu AI Act 2025 UE wchodzą w życie przepisy dotyczące powołania europejskiego organu nadzoru rynku oraz krajowych organów notyfikujących. W rezultacie od 1 sierpnia 2025 r. firmy wprowadzające na rynek modele AI ogólnego przeznaczenia lub systemy wysokiego ryzyka będą podlegać obowiązkowi rejestracji, udokumentowania testów oraz wdrożenia zabezpieczeń przed błędnym działaniem systemu. Co więcej, analogiczne regulacje nadzoru krajowego implementuje polski projekt ustawy o AI, nad którym pracuje Ministerstwo Cyfryzacji. Według zapowiedzi wiceministra Standerskiego, procedowanie ma zakończyć się jeszcze w 2025 r. Dlatego przedsiębiorstwa powinny już teraz przygotować się do nowych wymogów. (Źródło: Gov.pl – „Akt o AI: wdrożenie przepisów nadzoru rynku i notyfikacji”)
Dlaczego AI Act 2025 jest istotne dla PropTech/FM?
W segmencie zarządzania budynkami (BMS) i Smart Building wdrożenia AI klasyfikowane jako wysokiego ryzyka obejmują m.in. systemy automatycznego sterowania klimatyzacją oraz bezpieczeństwem. Tym samym konsekwencje regulacyjne dotkną wielu istniejących rozwiązań:
- Po pierwsze, nowe wymogi oznaczają konieczność przeprowadzenia kosztownych audytów zgodności, walidacji modeli oraz uzyskania notyfikacji urzędowej. Wpłynie to na wzrost CAPEX przy zakupie lub modernizacji systemów AI.
- Po drugie, dodatkowe raportowanie i utrzymanie dokumentacji zgodności zwiększy OPEX. Zarządcy będą musieli zatrudnić lub przeszkolić specjalistów ds. AI Compliance. W praktyce oznacza to również bardziej sformalizowane procesy operacyjne.
- Po trzecie, narzędzia IoT i BMS, które dotąd działały w tzw. „szarej strefie” regulacyjnej, uzyskają status produktów podlegających rygorom prawnym. W rezultacie konieczny będzie przegląd umów serwisowych i SLA z dostawcami, a nierzadko także ich renegocjacja.
Co zrobić teraz
Aby ograniczyć ryzyka i zapewnić zgodność, rekomendujemy następujące działania krok po kroku:
- Przegląd portfela systemów AI: zidentyfikować wszystkie narzędzia korzystające ze sztucznej inteligencji i ocenić ich klasyfikację ryzyka. Dzięki temu łatwiej będzie zaplanować priorytety wdrożeń.
- Audyt zgodności: zlecić zewnętrzny audyt dokumentacji technicznej i bezpieczeństwa systemów AI, uwzględniający wymogi AI Act. To pozwoli wcześnie wykryć luki i zapobiec opóźnieniom.
- Aktualizacja procesów procurementu: wprowadzić kryteria zgodności AI Act do procedur zakupowych oraz umów z dostawcami BMS/IoT, tak aby kolejne wdrożenia od początku spełniały wymagania.
- Szkolenia zespołów FM: przeszkolić personel FM i IT w zakresie nowych obowiązków raportowych oraz zarządzania ryzykiem AI. Dzięki temu codzienne operacje pozostaną płynne.
- Monitorowanie legislacji: na bieżąco śledzić prace nad polską ustawą o AI i komunikaty krajowego organu notyfikującego, aby szybko reagować na dodatkowe wytyczne. To kluczowe dla utrzymania ciągłej zgodności.
Źródła
Gov.pl – Akt o AI: wdrożenie przepisów nadzoru rynku i notyfikacji — 01.08.2024 — https://www.gov.pl/web/ai/rewolucja-w-regulacji-wchodzi-w-zycie-akt-o-ai
PRK24.pl – Wicepremier Gawkowski: ustawa o sztucznej inteligencji od 2025 roku — 17.09.2024 — https://prk24.pl/82344104/wicepremier-gawkowski-ustawa-o-sztucznej-inteligencji-od-2025-roku