Rosnąca popularność fotowoltaiki dostrzeżona przez ubezpieczycieli. Polisa przydomowej instalacji PV pokryje szkody z powodu...

Sukcesywny wzrost cen surowców, a więc i energii elektrycznej, oraz świadomości ekologicznej Polaków przyczynił się do boomu w fotowoltaice i rosnącej liczby mikroinstalacji zainstalowanych w polskich domach. Szacuje się, że w tej chwili już co siódmy dom w Polsce ma własną instalację PV. Ten wzrost zainteresowania dostrzegli też ubezpieczyciele, którzy poszerzają swoją ofertę o ubezpieczenie właśnie takich instalacji. Polisa chroni przed finansowymi skutkami najczęstszych zagrożeń typu pożar, przepięcie czy gradobicie. Ważne, aby przy jej wyborze zwrócić uwagę na zakres ochrony oraz sumę ubezpieczenia.

Fotowoltaika jest w ostatnich latach najszybciej rosnącym segmentem polskiego rynku OZE. Według danych PTPiREE na koniec 2021 roku łączna liczba mikroinstalacji prosumenckich przyłączonych do sieci dystrybucyjnej sięgnęła 854 tys., a ich moc przekroczyła 6 GW. Szacuje się, że obecnie ok. 14 proc. domów jednorodzinnych w Polsce ma własną instalację fotowoltaiczną, a w tym roku liczba gospodarstw domowych korzystających z energii wyprodukowanej we własnych mikroinstalacjach PV przekroczy 1 mln. Do takiej inwestycji zarówno klientów indywidualnych, jak i firmy skłania m.in. to, że pozwala ona uniezależnić się od zewnętrznych dostawców energii, a więc i wahań cenowych, ale także znacząco obniżyć rachunki za prąd.

Ten skokowy wzrost zainteresowania fotowoltaiką dostrzegli też ubezpieczyciele, którzy poszerzają swoją ofertę ubezpieczeniową właśnie o ubezpieczenie instalacji PV. Taka inwestycja to koszt rzędu kilkudziesięciu tysięcy złotych. Już samo to powinno skłonić właściciela do objęcia jej polisą.

Rynek oferuje w tej chwili dwa sposoby ubezpieczenia instalacji fotowoltaicznej – podkreśla w rozmowie z agencją Newseria Biznes Andrzej Paduszyński, dyrektor Departamentu Ubezpieczeń Indywidualnych w TU Compensa.

Jak wskazuje, ponad 70 proc. prosumenckich instalacji PV jest instalowanych na dachach domów, dlatego większość zakładów ubezpieczeń oferuje taką polisę w ramach kompleksowego ubezpieczenia domu.

Większość instalacji fotowoltaicznych znajduje się na budynkach mieszkalnych lub gospodarczych. W takim przypadku, jeżeli ubezpieczenie domu czy mieszkania obejmuje instalację PV, wtedy jest ona po prostu częścią polisy. Jest to bardzo powszechne rozwiązanie. Można powiedzieć, że praktycznie każda instalacja fotowoltaiczna na dachu domu jest ubezpieczona, oczywiście pod warunkiem że ubezpieczony jest dom – mówi ekspert Compensy.

W takim przypadku trzeba jednak pamiętać o tym, żeby zwiększyć sumę ubezpieczeniową polisy o wartość instalacji. Jeżeli panele są instalowane na stelażach w gruncie, instalacja jest traktowana jako budowla i wtedy wymagane jest odrębne ubezpieczenie.

Instalacje fotowoltaiczne są narażone m.in. na działanie gradu, huraganu czy upadek różnych przedmiotów, takich jak gałęzie drzew i masztów, w zależności od tego, jak silnie wieje wiatr. Nie można też zapominać o pożarach i głównym ryzyku, czyli o przepięciu – wymienia Andrzej Paduszyński.

W razie uszkodzenia lub awarii ubezpieczyciel pokryje koszty naprawy lub wymiany paneli. Odpowiednio dobrana polisa zapewnia ochronę nie tylko w przypadku zdarzeń losowych, ale również kradzieży elementów instalacji.

Ubezpieczenie przydomowej fotowoltaiki obejmuje całość takiej instalacji, czyli panele PV, instalację łączącą panele z falownikiem, sam falownik oraz podłączenie do sieci energetycznej. Przy jego wyborze warto zwrócić uwagę na zakres ochrony oraz sumę ubezpieczenia. 

– Wybierając ubezpieczenie instalacji fotowoltaicznej, trzeba uwzględnić jego zakres, czyli właśnie te najczęstsze ryzyka, które muszą być pokryte polisą. To przede wszystkim grad, skutki oddziaływania wiatru, przepięcie oraz pożar. Jeżeli polisa zawiera właśnie te ryzyka, możemy być spokojni, że większość szkód związanych z instalacją fotowoltaiczną zostanie pokrytych. Kolejnym ważnym elementem jest też suma ubezpieczenia instalacji fotowoltaicznej. Trzeba  pamiętać, aby ta suma odpowiadała wartości nowej instalacji PV. Jest to ważne w przypadku odszkodowania, żeby pokryć zarówno koszty zakupu, jak i zainstalowania nowej instalacji – wskazuje dyrektor Departamentu Ubezpieczeń Indywidualnych w TU Compensa.

W pakiecie ubezpieczeniowym Compensa Rodzina można wybrać ochronę na wypadek konkretnych zdarzeń losowych albo opcję all risk obejmującą wszystkie ryzyka. Między innymi od wyboru zakresu ochrony zależy cena polisy. Jak podkreśla ekspert, już w ramach podstawowego zakresu ochrony właściciel domu może ubezpieczyć zarówno panele i kolektory słoneczne, jak i pompy ciepła, które często towarzyszą inwestycji w fotowoltaikę – tu także możliwe jest ubezpieczenie instalacji zamontowanych wewnątrz oraz na zewnątrz budynku.

Technologie i online nie wyparły z rynku stacjonarnych targów. Branża wraca do formy sprzed...

Branża targowa i wystawiennicza to jeden z sektorów, który najmocniej ucierpiał przez pandemię i lockdowny, ale też sektor, który szybko dostosował się do nowych warunków i w popandemicznej rzeczywistości wrócił do prężnego rozwoju. – Pandemia pokazała nam, że spotkań twarzą w twarz nie da się niczym zastąpić – podkreślają przedstawiciele branży na pierwszej od trzech lat Europejskiej Konferencji Stowarzyszenia Przemysłu Targowego, która odbywa się w Poznaniu. Zaprezentowany na niej raport Grupy MTP i infuture.institute pokazuje, że spotkania w realu są istotne także dla pokoleń Z i Alfa, mimo że duża część ich życia toczy się w onlinie. Technologie mają być przede wszystkim narzędziem, które powinno wspierać organizatorów targów, by zapewnić zwiedzającym lepszą jakość doświadczeń, a wystawcom stwarzać warunki sprzyjające nawiązywaniu kontaktów biznesowych. 

– Miło patrzeć, że po dwóch latach pandemii branża wraca do życia. Pawilony wystawiennicze w całej Europie zaczynają się zapełniać. Wystawcy wracają z dużym entuzjazmem, podobnie jak kupujący. Luka się wypełnia, rośnie potrzeba powrotu i uczestnictwa w targach, żeby nawiązywać relacje biznesowe – mówi agencji Newseria Biznes Kai Hattendorf, dyrektor zarządzający UFI – Światowego Stowarzyszenia Przemysłu Targowego. 

W Polsce branża MICE (meetings, incentives, conferences, exhibitions) odpowiada za ok. 1,5 proc. PKB, a globalna wartość tego rynku w 2019 roku, a więc jeszcze przed pandemią, wynosiła ok. 1,2 mld dol. Rok później, w wyniku lockdownów i pandemicznych obostrzeń, polskie firmy z branży spotkań i wydarzeń odnotowały spadek przychodów sięgający 73 proc. Teraz, po ponad dwóch latach branża MICE – nie tylko w Polsce, ale i całej Europie – wraca powoli do funkcjonowania w przedpandemicznej, stacjonarnej formule.

Pandemia nauczyła nas kilku rzeczy. Przekonaliśmy się, jak dużo można zrobić w świecie cyfrowym, jak można ulepszyć targi, kiedy towarzyszą im usługi cyfrowe. Pandemia pokazała nam również bardzo dobitnie, że spotkań twarzą w twarz nie da się w biznesie niczym zastąpić – mówi Kai Hattendorf.

– Rynek spotkań i rynek wystawienniczy w Polsce jest jedną z branż najbardziej dotkniętych przez pandemię COVID-19. Jednak jest też niewątpliwie najlepszym barometrem polskiej gospodarki i będzie odgrywać fundamentalną rolę w jej odbudowie po tych minionych, bardzo trudnych dwóch latach – mówi Karolina Niementowska, dyrektor ds. komunikacji korporacyjnej w Grupie MTP.

Z raportu opracowanego przez Grupę MTP i infuture.institute wynika, że branża MICE ma dobry grunt do odbudowy. Po ponad dwóch latach pracy zdalnej, kwarantanny i lockdownów ludzie mają większą potrzebę spotkań bezpośrednich. W badaniu przeprowadzonym na potrzeby raportu ponad 70 proc. respondentów wskazało, że udział w tradycyjnych targach zaspokaja ich potrzebę kontaktów społecznych. Badani znacznie chętniej deklarowali też swój udział w targach stacjonarnych.

– Wracamy do stanu sprzed pandemii, znowu zaczynamy spotykać się osobiście. Ale wyraźnie widzimy też, że nie ma już powrotu do punktu wyjściowego. Branża stanęła w obliczu istotnej deformacji, będzie musiała się zmienić – mówi Natalia Hatalska, prezeska i założycielka infuture.institute. – Do tej pory funkcją nadrzędną targów i branży wystawienniczej był głównie biznes, nawiązywanie kontaktów, poznawanie kontrahentów, sprzedaż, etc. Teraz to się zmienia. Branża wystawiennicza staje się realnie branżą spotkań, czyli umożliwia kontakty ludziom, którzy są stęsknieni kontaktów, interakcji społecznych.

Raport „W kierunku rezyliencji. Przyszłość branży targowej” pokazuje, że nie tylko pandemia Covid-19 miała wpływ na branżę MICE, ale oddziałują na nią też m.in. otoczenie gospodarcze, transformacja cyfrowa i klimatyczna oraz zmiany demograficzne, szczególnie wejście na rynek przedstawicieli pokolenia Z i Alfa, którzy mają wobec branży spotkań zupełnie inne oczekiwania.

Oczekują wielu zmysłowych doświadczeń, rozrywki, ale też edukacji, tworzenia społeczności – mówi Natalia Hatalska. – Obydwa te pokolenia urodziły się już w czasach internetu, nie znają świata bez niego i istnieje dość głębokie przekonanie, że chcą się spotykać wyłącznie online. Natomiast z naszych badań wynika, że 90 proc. osób z pokolenia Z i Alfa zapytanych o to, czy wolą kontakty cyfrowe, czy fizyczne, wybiera te drugie. Widać więc, że te kontakty w świecie offline są dla nich bardzo istotne. Oczywiście na targach mamy wiele technologii wspierających, ale z naszych obserwacji wynika, że one są traktowane trochę pobieżnie. Ludzie do tych technologii podchodzą, testują je, a potem odchodzą, bo jednak wybierają kontakt z drugim człowiekiem.

To jednak technologia będzie mieć znaczący wpływ na rozwój branży w kolejnych latach.

Mowa tu m.in. o koncepcji metawersum, gdzie świat cyfrowy jest lustrzanym odbiciem świata fizycznego. To jeden z istotnych trendów, choć raczej odległych, bo na dziś nie mamy jeszcze na tyle dojrzałych technologii. Mówimy raczej o perspektywie ok. 2040 roku – mówi Natalia Hatalska.

Patrzenie na takie wydarzenia przez pryzmat tylko jednego, dwóch czy pięciu dni, kiedy ludzie odwiedzają targi, jest przestarzałe. W przyszłości będziemy zajmowali się klientami przez cały rok, nie tylko przed i po targach. Będziemy łączyć kupujących i sprzedających, zbliżać do siebie ludzi i ich pomysły przez cały rok. Będzie więcej stacjonarnych wydarzeń, może niektóre z nich będą mniejsze, ale za to będą rozproszone po całym świecie i wspierane przez mnóstwo rozwiązań cyfrowych. W tym aspekcie technologie cyfrowe będą mogły naprawdę przyczynić się do rozwoju branży – dodaje dyrektor zarządzający UFI.

– Branża MICE ewoluuje nieustająco, to jest wpisane w nasze DNA. Musimy ciągle dostosowywać się do zmieniających się trendów, do zmieniających się oczekiwań i potrzeb rynku – podkreśla Karolina Niementowska.

W raporcie „W kierunku rezyliencji. Przyszłość branży targowej” eksperci prognozują, że m.in. postępująca digitalizacja i zmiany demograficzne będą sprzyjać zmniejszaniu powierzchni targowej wynajmowanej przez wystawców. W efekcie zmieni się model biznesowy targów, a branża będzie zmuszona do dywersyfikacji działalności. Zarabianie na wynajmowaniu metrów kwadratowych rzeczywistej przestrzeni w halach wystawienniczych czy oferowanie usług związanych z organizacją tradycyjnych targów może bowiem okazać się niewystarczające.

Kluczowa dla branży MICE jest w tej chwili dywersyfikacja, nie skupianie się tylko i wyłącznie na jednym profilu działalności. Dlatego też jesteśmy w trakcie wielu prac inwestycyjnych, modernizujemy naszą infrastrukturę, żeby była jak najlepiej dostosowana do zróżnicowanego charakteru wydarzeń i w równym stopniu atrakcyjna dla gości biznesowych, jak i tych, którzy szukają tutaj przestrzeni do wypoczynku, dobrej kuchni albo wydarzeń kulturalnych – mówi dyrektor ds. komunikacji korporacyjnej w Grupie MTP.

W efekcie obecna funkcja targów, skupiona m.in. na nawiązywaniu relacji biznesowych, przestanie pełnić główną rolę. Targi staną się czymś więcej niż miejscem zawierania umów biznesowych i poszukiwania kontrahentów.

Międzynarodowe Targi Poznańskie, które przez ostatnich 100 lat były miejscem, gdzie odbywały się najważniejsze wydarzenia targowe, gospodarcze i biznesowe w kraju, też się zmieniają, adaptują się do potrzeb rynku. W tej chwili ewoluują w kierunku zagospodarowania wolnego czasu. Ponieważ są zlokalizowane w samym sercu Poznania, odgrywają coraz większą rolę w animowaniu wolnego czasu dla mieszkańców. I choć biznes wciąż pozostaje fundamentem naszej działalności, myślę, że ten kierunek będziemy kontynuować – mówi Karolina Niementowska.

Co istotne, branży MICE – podobnie jak i innych sektorów gospodarki – nie omijają również skutki zielonej transformacji.

– Musimy osiągnąć zerowe emisje netto, aby walczyć z kryzysem klimatycznym i mamy na to dobre rozwiązania, które można wdrożyć w całej branży – mówi Kai Hattendorf.

– Transformacja klimatyczna, zrównoważony rozwój i przechodzenie na gospodarkę obiegu zamkniętego – czyli np. to, z jakich materiałów będą powstawać pawilony wystawiennicze i co będzie się z nimi dalej działo – to dziś istotne czynniki. Ważne są też kwestie ekonomiczne i gospodarcze, jak np. przerwane łańcuchy dostaw, które były spowodowane najpierw pandemią, a teraz wojną. One prowadzą nas trochę w kierunku lokalności. Możemy sobie wyobrazić, że branża targowa i wystawiennicza będzie zmierzać nie tyle w kierunku międzynarodowych, bardzo dużych imprez, ale i bardziej lokalnych, kameralnych wydarzeń, festiwali butikowych – dodaje Natalia Hatalska.

Raport „W kierunku rezyliencji. Przyszłość branży targowej”, opracowany przez Grupę MTP i infuture.institute, został zaprezentowany podczas odbywającej się w dniach 4–6 maja Europejskiej Konferencji Światowego Stowarzyszenia Przemysłu Targowego (UFI). To najważniejsze międzynarodowe wydarzenie dla branży targowej w tej części świata. W tym roku po raz pierwszy odbyło się w Polsce, na terenie Międzynarodowych Targów Poznańskich i Poznań Congress Center.

– Po raz pierwszy od trzech lat cała Europa spotyka się ponownie. Do Poznania przyjechali ludzie z ponad 30 krajów, wszyscy liderzy branży wystawienniczej z całej Europy i nie tylko. Mamy gości z Ameryki Północnej i Azji. Wszyscy pojawili się tutaj, by ponownie nawiązać relacje i pchnąć branżę do przodu, omówić obecne trendy i nowy raport. Chcemy też przyjrzeć się temu, co nas czeka i możliwościom współpracy tak, aby branża szybciej wróciła na właściwe tory – mówi Kai Hattendorf.

Jest to o tyle szczególne wydarzenie, że spotykamy się wspólnie po raz pierwszy w Polsce, po raz pierwszy w Poznaniu i po ponad dwóch latach pandemicznej przerwy. Tak więc jest to doskonały moment, żeby poważnie zastanowić się nad przyszłością, która nas czeka, bo wszyscy musimy do tej przyszłości dostosować nasze przedsiębiorstwa, biznesplany i infrastrukturę – dodaje Karolina Niementowska.

Rynek e-commerce pod lupą UOKiK. Przedsiębiorcy naruszający przepisy muszą się liczyć z dotkliwymi karami

W związku z szybkim rozwojem internetowego handlu rynkowi coraz uważniej przygląda się Urząd Ochrony Konkurencji i Konsumentów. Dlatego – jak podkreśla ekspert Kancelarii Baker McKenzie Marcin Trepka – przedsiębiorcy, którzy chcą skorzystać na szybkim wzroście e-commerce, powinni się pochylić nad kwestiami związanymi z prawem konsumenckim. Nowe obowiązki nałoży na nich także unijna dyrektywa Omnibus, która powinna zacząć obowiązywać od 28 maja br. i która ma m.in. zapobiegać nieuczciwemu zawyżaniu cen przed wprowadzeniem promocji czy publikowaniu fałszywych opinii na temat produktów. Przedsiębiorcom internetowym zostało już bardzo niewiele czasu, aby dostosować swoje regulaminy do nowych przepisów i wdrożyć nowe procedury w zakresie obsługi klientów. 

– Często przedsiębiorcy przy obniżkach cen czy promocjach typu Black Friday albo Cyber Monday stosowali taktykę w postaci dużych, kilkudziesięcioprocentowych promocji. Okazywało się, że część z nich stopniowo podwyższała najpierw cenę. Gdybyśmy sprawdzili cenę sprzed miesiąca, okazałoby się, że promocja sięga raptem kilku procent. Teraz dyrektywa będzie wymagała, aby obok tej ceny obniżonej każdorazowo pokazywać najniższą cenę z ostatnich 30 dni – mówi agencji Newseria Biznes Marcin Trepka, radca prawny i partner w kancelarii Baker McKenzie, ekspert Departamentu Ochrony Konkurencji i Konsumentów.

Jak wskazuje, ważna zmiana będzie dotyczyć też publikowania opinii na temat nabywanych produktów i usług. Badania przeprowadzone dla UOKiK pokazały, że 93 proc. konsumentów sugeruje się opinią o produkcie przed dokonaniem zakupu, a 86 proc. zwraca uwagę na to, jaką opinię ma sprzedający. Jest to więc istotny czynnik przy podejmowaniu decyzji zakupowych.

– Teraz przedsiębiorca będzie mieć obowiązek zapewniania, aby opinie konsumentów o sprzedającym lub jego produkcie pochodziły od osób, które rzeczywiście ten produkt nabyły albo z niego korzystały. Jeżeli tego nie zrobi, nie będzie mógł się nimi posługiwać bądź będzie mu groziła odpowiedzialność za stosowanie nieuczciwych praktyk rynkowych – mówi Marcin Trepka.

Zgodnie z unijną dyrektywą platformy internetowe będą mieć też obowiązek przekazywania konsumentom jasnych informacji o tym, jakie obowiązki ma względem nich sprzedający i sama platforma m.in. w zakresie zwrotów czy reklamacji.

– Konsumenci niejednokrotnie nie mieli pojęcia, że nabywając towar za pośrednictwem platformy zakupowej, nabywają go od platformy, od przedsiębiorcy czy innego konsumenta. To oczywiście rodziło określone konsekwencje – konsument nie miał pojęcia, do kogo zgłosić reklamację, nie wiedział, czy ma prawo odstąpienia od umowy – mówi ekspert Departamentu Ochrony Konkurencji i Konsumentów w Baker McKenzie. – Kolejnym obowiązkiem będzie informowanie, dlaczego konsument korzystający z wyszukiwarki bądź platformy widzi towary bądź oferty w określonym porządku. Unijny prawodawca zauważył bowiem, że konsumenci najczęściej sugerują się tym i wybierają pierwsze pozycje, więc przedsiębiorcy niejednokrotnie faworyzowali własne produkty czy usługi przez platformę kosztem ofert innych sprzedawców. Mieliśmy już głośną sprawę Google’a i ponad 2 mld euro kary nałożone właśnie za samopreferowanie, a w Polsce trwa obecnie postępowanie przeciwko Allegro dokładnie w tej samej sprawie.

Co istotne, za naruszenia prawa konsumenckiego grożą przedsiębiorstwom internetowym dotkliwe kary finansowe, a do odpowiedzialności może zostać pociągnięta nie tylko firma, ale i kadra zarządzająca.

– To jest do 10 proc. ubiegłorocznego obrotu oraz kary dla menedżerów do 2 mln zł, a w przypadku przedsiębiorców działających na rynku finansowym nawet do 5 mln zł. Co ciekawe, takie kary już padają. Urząd Ochrony Konkurencji i Konsumentów co prawda na razie nakłada je za praktyki typu piramidy finansowe, ale już widzimy, że planuje też przynajmniej wszczynać postępowania w stosunku do menedżerów także za inne praktyki, w tym właśnie nieinformowania czy też wprowadzenia konsumentów w błąd – mówi Marcin Trepka.

Jak podkreśla, prezes UOKIK w ostatnim czasie bacznie przygląda się rynkowi e-commerce.

– Widzimy, że stopniowo wszczynane są postępowania w tym zakresie. W większości dotyczą one potencjalnych naruszeń zbiorowych interesów konsumentów albo stosowania niedozwolonych klauzul umownych – mówi radca prawny i partner w kancelarii Baker McKenzie.

Podczas posiedzenia sejmowej podkomisji ds. spraw antymonopolowych i ochrony konsumentów 23 marca br., poświęconej nieprawidłowościom na rynku e-commerce, szczególnie nieuczciwej konkurencji przez platformy zarządzane przez podmioty spoza Unii Europejskiej, prezes UOKiK Tomasz Chróstny poinformował, że urząd prowadzi dwa postępowania wobec Allegro – antymonopolowe i wyjaśniające. Postępowania toczą się również wobec innych platform internetowych, w tym m.in. Apple’ oraz usług Amazon Prime i Amazon Prime Video.

Te postępowania dotyczą w większości podstawowych kwestii, jak np. regulaminów czy zmian wprowadzanych w tych regulaminach, stosowania bądź niestosowania klauzul modyfikacyjnych i zmieniania umów pomimo tego. Ponadto UOKiK kwestionuje też m.in. sposób, w jaki przedsiębiorcy informują konsumenta o podwyżkach cen, o pobieraniu dodatkowych opłat bądź o promocjach czy sposobach odstąpienia od umowy. Jednym z zarzutów jest również długi okres pomiędzy odstąpieniem od umowy a zwrotem opłaty – wylicza Marcin Trepka.

Internetowy handel przeżywa w ostatnich latach boom, a pandemia COVID-19 tylko zintensyfikowała ten trend. Według wyliczeń PwC w 2020 roku sprzedaż online w Polsce zwiększyła się o 35 proc., a kanał e-commerce osiągnął 14-proc. udział w wartości sprzedaży detalicznej i był wart ok. 100 mld zł (raport „Perspektywy rynku e-commerce w Polsce” 2021). Szacunki zakładają, że do 2026 roku wartość brutto polskiego rynku e-commerce, na którym działa około 150 tys. przedsiębiorstw, sięgnie już 162 mld zł, co oznacza średnioroczny wzrost na poziomie 12 proc.

Ekspert Baker McKenzie zwraca jednak uwagę, że przedsiębiorcy, którzy chcą skorzystać na szybkim rozwoju tego rynku, powinni na starcie zwrócić uwagę na kilka podstawowych kwestii prawnych, m.in. formułować swoje regulaminy i wzorce umów w sposób prosty i zrozumiały dla konsumenta oraz unikać stosowania klauzul otwartych.

– Jeżeli mają zamiar stosować klauzule modyfikacyjne, powinny to być klauzule skonstruowane w sposób prawidłowy, nie ma tam miejsca na niedomówienia. Praktyka pokazała już, że UOKiK od razu to kwestionuje – mówi radca prawny. – Przedsiębiorcy powinni też zwracać uwagę na tzw. komunikację wewnątrzproduktową, żeby konsumenci nie otrzymywali informacji mylących albo przedstawionych w taki sposób, że mogłoby to zostać uznane za wprowadzenie w błąd.

Rozwój farm wiatrowych na Bałtyku może wymagać specustawy. Przyjęte do tej pory regulacje mogą...

– Tym, czego może nam brakować w najbliższych latach i co stanowi wąskie gardło w rozwoju morskiej energetyki wiatrowej, są regulacje, które wciąż w niewystarczający sposób zapewniają, że proces developmentu będzie przeprowadzony wystarczająco szybko – mówi Michał Piekarski, partner w kancelarii Baker McKenzie. Jego zdaniem realizacja tak ogromnych inwestycji może wymagać nie kosmetycznych zmian w ustawach czy rozporządzeniach, ale dedykowanej specustawy. Potrzebne jest m.in. zdecydowane przyspieszenie procesu wydawania decyzji administracyjnych i przyznawania nowych pozwoleń lokalizacyjnych na Morzu Bałtyckim. Inaczej nie uda się dotrzymać ambitnych harmonogramów inwestycyjnych, zgodnie z którymi przed 2030 rokiem moc zainstalowana w offshore mogłaby sięgnąć nawet 10 GW, o wiele więcej, niż zakłada aktualna Polityka energetyczna Polski do 2040 r​oku.

Otoczenie prawne dla rozwoju branży offshore dziś wygląda bez wątpienia lepiej niż jeszcze kilka lat temu, głównie za sprawą ustawy o promowaniu wytwarzania energii elektrycznej w morskich farmach wiatrowych, która weszła w życie na początku 2021 roku i stworzyła podstawy dla rozwoju takich projektów. Mimo to pod względem regulacyjnym sytuacja branży offshore’owej wciąż jest jednak daleka od ideału.

Projekty w Polsce rozwijane są w dwóch fazach. Pierwsza, która teraz jest już praktycznie na etapie zakupów, czyli procurementu, zamawiania dóbr i usług na potrzeby realizacji tych projektów. Natomiast druga jest w kluczowym momencie przyznawania nowych pozwoleń lokalizacyjnych na Morzu Bałtyckim. Ta druga faza jest regulowana tzw. rozporządzeniem rozstrzygającym. I tutaj pojawiają się problemy związane z interpretacją tegoż rozporządzenia i emocje związane z tym, do czego to rozporządzenie nas zaprowadzi, kto otrzyma pozwolenia lokalizacyjne na Bałtyku. Jest więc przestrzeń do tego, żeby tę regulację wciąż poprawiać i sprawić, że ona będzie jednoznaczna, niekoniecznie promująca określone grupy inwestorów, a takie zagrożenie rzeczywiście może w tej chwili istnieć – mówi agencji Newseria Biznes Michał Piekarski, partner i szef praktyki Energetyki i Infrastruktury w kancelarii Baker McKenzie.

Jesienią ubiegłego roku zawarte zostało porozumienie sektorowe na rzecz rozwoju morskiej energetyki wiatrowej w Polsce, którego sygnatariuszami są m.in. organy administracji rządowej i kluczowe ministerstwa, podmioty z sektora oświaty i nauki, inwestorzy oraz organizacje branżowe – łącznie ponad 200 podmiotów. Dokument, który został dobrze przyjęty przez branżę, ma stanowić bazę do współpracy i przyczynić się do maksymalizacji tzw. local content, czyli udziału polskich przedsiębiorców w łańcuchu dostaw dla morskiej energetyki wiatrowej. Rząd zapowiedział też uproszczenia dotyczące postępowań administracyjnych związanych z budową farm wiatrowych w polskiej wyłącznej strefie ekonomicznej na Bałtyku. Ekspert ocenia jednak, że to wciąż za mało, aby przyspieszyć rozwój takich projektów.

– Pewne nowelizacje przepisów zostały wprowadzone, ale to jeszcze stanowczo za mało. Przy projektach o łącznej mocy niemal 11 GW, a docelowo mówimy łącznie o 15–16 GW z uwzględnieniem trzeciej fazy, nie ma przestrzeni do drobnych zmian w przepisach. To jest miejsce być może do zaprojektowania i wdrożenia specustawy, która – na wzór innych, krytycznych dla sektora energetycznego obszarów – pozwoliłaby dać impuls do rozwoju i radykalnie uprościć ścieżkę otrzymywania pozwoleń – ocenia ekspert Baker McKenzie. – Niestety szanse oceniam jako umiarkowane, de facto nie jest to aktualnie przedmiot dyskusji.

Jak wynika z szacunków WindEurope, przytaczanych w raporcie PSEW („Wizja dla Bałtyku. Wizja dla Polski”), na polskich wodach Bałtyku jest potencjał do zainstalowania 28 GW mocy. W perspektywie 2050 roku farmy wiatrowe na morzu mogłyby zaspokoić prawie 60 proc. krajowego zapotrzebowania na prąd. To jednak długofalowa, optymistyczna perspektywa, która wymagałaby mocnego impulsu rozwojowego i dużych ułatwień dla branży przy realizacji takich projektów. Jak na razie rządowa strategia zakłada, że do końca obecnej dekady moc zainstalowana w offshore ma sięgnąć ok. 5,9 GW, a w 2040 roku – 11 GW.

– Cały czas jest wiara w to, że te harmonogramy – już teraz szalenie ambitne – w aktualnym otoczeniu prawnym są możliwe do realizacji. Chciałbym być dobrej myśli, ale wydaje mi się, że te cele i daty, o których mówimy, są jednak niewyobrażalnie optymistyczne. Aby móc ich dotrzymać, trzeba by rozpocząć rozmowy już dzisiaj – mówi Michał Piekarski. – Musimy mieć silny impuls ze strony rządu, program rozwoju morskiej energetyki wiatrowej musi być programem z całą mocą wspieranym przez państwo, również w drodze administracyjnych ułatwień, i zmobilizować inwestorów, łańcuchy dostaw i urzędy odpowiedzialne za wydawanie pozwoleń, aby druga oraz trzecia faza tych projektów rozwijała się jak najszybciej. Ten impuls i wspólne działanie są absolutnie kluczowe.

Zainteresowanie inwestorów zagranicznych realizacją inwestycji na polskich wodach Bałtyku jest ogromne, co widać po wnioskach złożonych w drugiej fazie realizacji projektów offshore’owych, czyli o wydanie pozwoleń lokalizacyjnych. W grze są najwięksi światowi gracze.

Istniejące przepisy mogą jednak – w sposób niebezpośredni – powodować, że balans między podmiotami z Polski, należącymi do Skarbu Państwa, versus podmiotami zagranicznymi w wolumenie rozdanych pozwoleń lokalizacyjnych może być lekko zachwiany. Natomiast to nie jest jeszcze przesądzone. Tajemnicą przedsiębiorstwa podmiotów zagranicznych jest to, jakie mają asy w rękawie i czego użyją w procedurze rozstrzygającej – mówi szef praktyki Energetyki i Infrastruktury w Baker McKenzie. – Perspektywa rozwoju energetyki to nie miesiące czy lata, ale dekady. Jestem pewien, że w ciągu najbliższej dekady projekty morskiej energetyki wiatrowej w Polsce będą rozwijane wspólnie przez krajowe podmioty – takie jak PKN Orlen czy PGE oraz podmioty zagraniczne, zarówno z sektora odnawialnego, a może i z branży oil and gas, która w tym momencie przechodzi transformację energetyczną.

Poza kwestiami regulacyjnymi konieczne dla przyspieszenia rozwoju offshore w Polsce jest tworzenie lokalnego łańcucha dostaw.

Aby zrealizować projekty o wartości 10, 20 czy 30 mld zł, potrzebne są nie tylko wola i finansowanie, ale też ręce do pracy. Byłoby wspaniale, gdybyśmy mogli te projekty realizować polską kadrą. Potrzebne są również fabryki, porty instalacyjne i cały łańcuch dostaw, który już w tym momencie powinniśmy budować, żeby móc realizować projekty offshore teraz i za kilka lat – mówi Michał Piekarski.

CERT Orange Polska: Rośnie skala cyberzagrożeń, ale też skuteczność ich wykrywania. W ubiegłym roku...

Rośnie skala, ale też skuteczność ochrony przed internetowymi zagrożeniami. CyberTarcza, która broni przed nimi użytkowników sieci mobilnej i stacjonarnej Orange, w 2021 roku ochroniła 4,5 mln osób przed utratą danych i pieniędzy – wynika z nowej edycji raportu CERT Orange Polska. Skala cyberprzestępczości szybko rośnie, bo już w I kwartale 2022 roku liczba klientów sieci Orange, ochronionych przed skutkami ataków, sięgnęła 2,25 mln. – W walce z cyberzagrożeniami pomagają rozwiązania oparte na uczeniu maszynowym i sztucznej inteligencji. Kluczowa jest też konsekwentna edukacja internautów – mówi Piotr Jaworski, członek zarządu Orange Polska ds. Sieci i Technologii. 

– Ubiegły rok upłynął pod znakiem phishingu i złośliwego oprogramowania instalowanego na urządzeniach klientów. Ten trend jest widoczny już od kilku lat – mówi agencji Newseria Biznes Piotr Jaworski, członek zarządu Orange Polska odpowiedzialny za sieć i technologie. – Już w 2018 roku zauważyliśmy, że udział phishingu w ogóle ataków wzrósł z kilku procent do ponad 20 proc., a w 2019 roku to już było 40 proc. i na tym poziomie utrzymuje się do tej pory. To właśnie phishing jest w tej chwili jednym z największych cyberzagrożeń wymierzonych w  indywidualnego użytkownika, aczkolwiek firmy też mogą paść łupem cyberprzestępców, jeśli nieostrożny, nieuważny pracownik da się oszukać.

Z nowej edycji raportu CERT Orange Polska wynika, że phishing pozostaje najpowszechniejszym typem złośliwych ataków. Odpowiada za prawie 40 proc. wszystkich wykrytych w sieci operatora zagrożeń. Cyberprzestępcy wciąż jednak doskonalą techniki phishingu, wyłudzając dane logowania i pieniądze na wiele różnych sposobów. Wysyłają w SMS-ach linki do stron łudząco przypominających witryny banków czy firm kurierskich pod pretekstem dopłaty do przesyłki czy rachunku za energię, tworzą fałszywe sklepy, loterie albo zachęcają do inwestycji na nieistniejących giełdach kryptowalut. Często celują też w użytkowników portali z ogłoszeniami i platform sprzedażowych, podając się za kupujących i podsuwając im linki do fałszywych stron do rzekomego odbioru pieniędzy.

– Phishing generalnie polega na wyłudzeniu tożsamości i danych logowania ofiary – wyjaśnia Piotr Jaworski. – Musimy mieć świadomość, co utrata danych oznacza, że np. dane logowania do konta bankowego pozwalają to konto wyczyścić. Innymi słowy, ofiara, która dała się nabrać, może stracić wszystkie środki zgromadzone na koncie bankowym – przestrzega ekspert.

Rosnącą skalę zagrożenia odzwierciedlają setki milionów zdarzeń phishingowych, które zespół CERT Orange Polska zablokował w 2021 roku. Łącznie w 2021 roku CyberTarcza, która chroni użytkowników sieci mobilnej i stacjonarnej Orange przed zagrożeniami w internecie, powstrzymała ponad 335 mln incydentów phishingowych powiązanych m.in. z wyłudzaniem danych logowania do kont bankowych lub profili społecznościowych. Uchroniła w ten sposób 4,5 mln osób. To skokowy wzrost, bo jeszcze w 2020 roku liczba zablokowanych incydentów oscylowała wokół 40 mln, a CyberTarcza ochroniła 3,5 mln użytkowników przed utratą danych i pieniędzy. Jak wskazuje ekspert, tegoroczne statystyki mogą być wyższe, bo już w I kwartale 2022 roku liczba klientów sieci Orange, których operator ochronił przed zagrożeniami, sięgnęła 2,25 mln.

– Tyle osób nie straciło swoich pieniędzy, ich urządzenia nie zostały przejęte przez cyberprzestępców do tego, żeby mogli dalej szerzyć swój proceder. To świadczy o tym, że jesteśmy coraz skuteczniejsi, ale z drugiej strony niestety odzwierciedla też skalę zjawiska, z jakim się mierzymy – mówi Piotr Jaworski.

Specjaliści od cyberbezpieczeństwa zaobserwowali też, że w ostatnich miesiącach coraz częściej phishingowi towarzyszy instalacja złośliwego oprogramowania.

– Po zainstalowaniu takiego oprogramowania ofiara nie tylko udostępnia swoje dane, ale i jej urządzenie staje się dla cyberprzestępcy narzędziem do dalszego działania. Może np. wykorzystywać je do tego, żeby infekować kolejnych użytkowników – mówi członek zarządu Orange Polska odpowiedzialny za sieć i technologię.

Statystyki pokazują, że złośliwe oprogramowanie było drugim najczęstszym zagrożeniem w sieci w 2021 roku, odpowiadając za prawie 18 proc. wszystkich incydentów zarejestrowanych przez CERT Orange Polska. Co więcej, w ubiegłym roku pojawił się nowy rodzaj malware’u – Flubot – wykradający kontakty z książek adresowych zainfekowanych smartfonów. Następnie te wykradzione numery były wykorzystywane do masowego rozsyłania SMS-ów podszywających się np. pod pocztę głosową i nakłaniających kolejne ofiary do zainstalowania złośliwych aplikacji. Zainfekowane w ten sposób telefony później służyły do dalszego rozpowszechniania malware’u.

– O skali tego procederu mogą zaświadczyć liczby, bo w ubiegłym roku notowaliśmy dziennie nawet milion takich SMS-ów – mówi Piotr Jaworski.

Na tym zagrożenia się jednak nie kończą, bo w ubiegłym roku zbliżony odsetek (17 proc.) stanowiły też ataki DDoS. Pozostają one też jednym z największych zagrożeń dla firm. Pojawiają się też nowe, związane m.in. z internetem rzeczy. Cyberprzestępcy wykorzystują do ataków nie tylko luki w infrastrukturze czy podatność oprogramowania, lecz także braki w przeszkoleniu pracowników.

Według CERT Orange Polska w tym roku – prócz wyłudzeń phishingowych – można się spodziewać kolejnych ataków DDoS o dużym wolumenie m.in. na sektor bankowy, a także ataków na giełdy kryptowalut oraz kradzieży portfeli z kryptowalutami. 

– Warto również wspomnieć o kradzieżach tożsamości elektronicznej, co jest niezwykle istotne, ponieważ bardzo wielu przestępców kradnie dane pracownika firmy – jego loginy, hasła, tokeny etc. – i potem podszywa się pod niego, uzyskując dostęp do zasobów firmy. To są takie incydenty, które w 2022 roku będą dominowały – mówi ekspert.

Walkę z cyberzagrożeniami wspierają rozwiązania oparte na uczeniu maszynowym i sztucznej inteligencji, co pozwala przewidywać i zawczasu zapobiegać wielu incydentom naruszenia bezpieczeństwa w sieci. Technologie znacznie skracają też czas reakcji, bo około 40 proc. domen phishingowych kończy swoją aktywność w ciągu kilku minut od wizyty pierwszej ofiary. Dlatego właśnie przyszłością są zautomatyzowane narzędzia i sztuczna inteligencja, wspierające ekspertów z zakresu cyberbezpieczeństwa.

– Powiedzmy sobie wprost: bez automatyzacji, sztucznej inteligencji i machine learningu wielu rzeczy nie dalibyśmy rady zrobić. Wykorzystujemy te narzędzia do tego, żeby rozbudować algorytmy, którymi „karmimy” naszą CyberTarczę. To jest nasze autorskie rozwiązanie, które przede wszystkim wykrywa zagrożenia i chroni naszych klientów – mówi Piotr Jaworski.

Operator wdrożył w swojej sieci także technologię RPKI, czyli „kryptograficzny podpis dla zasobów IP”, który dodatkowo zabezpiecza sieć szkieletową. Utrudnia to przejęcie ruchu internetowego.

CERT Orange Polska – specjalistyczny zespół ds. walki z cyberprzestępczością – działa w Polsce już od 25 lat, ściśle współpracując m.in. z NASK i CERT-ami innych instytucji, a także organizacjami międzynarodowymi.

– Oprócz szerzenia świadomości, edukacji internautów, której nigdy za wiele, to właśnie współpraca jest kluczowa w świecie cyberbezpieczeństwa.  Bardzo istotna jest też dla nas wymiana międzynarodowa. Pozwala ona w wielu wypadkach zapobiec zdarzeniom, które miały miejsce w innych krajach na świecie i z dużym prawdopodobieństwem mogłyby się wydarzyć też w Polsce – mówi Piotr Jaworski.

Eksperci prognozują co najmniej kilkunastoprocentowy wzrost cen usług telekomunikacyjnych. Jeśli ustawa o cyberbezpieczeństwie wejdzie...

Przedsiębiorcy rynku telekomunikacyjnego, prawnicy, eksperci i politycy krytykują tryb procedowania nowelizacji ustawy o krajowym systemie cyberbezpieczeństwa. Siódma wersja projektu, która pojawiła się w marcu, podobnie jak pięć poprzednich nie została poddana konsultacjom społecznym, mimo wprowadzania do nich istotnych zmian. Krytyka dotyczy szczególnie możliwości wykluczania z rynku pochodzących spoza UE i NATO dostawców sprzętu i usług ICT. Eksperci ostrzegają, że konieczność rezygnacji ze sprzętu danego dostawcy będzie dla operatorów oznaczała spory wydatek. Koszty szacowane na miliardy złotych zostaną ostatecznie przeniesione na konsumentów. 

 Prace nad ustawą o cyberbezpieczeństwie trwają od prawie dwóch lat. W tej chwili mamy do czynienia już z siódmą wersją tego projektu. Zgłoszono do tej pory 750 poprawek i praktycznie – oprócz tej początkowej wersji – nie było żadnych konsultacji. Widać, że sposób procedowania tej ustawy jest patologiczny. A to oznacza, że nie może prowadzić do dobrych rezultatów, ponieważ nie uwzględni interesów bardzo dużej grupy polskich przedsiębiorstw – mówi agencji Newseria Biznes Andrzej Arendarski, prezydent Krajowej Izby Gospodarczej. – Rozumiem, że szczególnie teraz względy bezpieczeństwa są na pierwszym miejscu, ale nie mogą być przykrywką do partactwa legislacyjnego i do pomijania interesariuszy, istotnych z punktu widzenia przyszłego kształtu ustawy.

Ustawa o krajowym systemie cyberbezpieczeństwa (KSC), przyjęta w 2018 roku, to pierwszy w Polsce akt prawny dotyczący tego obszaru. Rząd już od jesieni 2020 roku przymierza się do jej nowelizacji, która ma wzmocnić polskie bezpieczeństwo cybernetyczne. Nowela wpłynie też na kształt całego polskiego rynku telekomunikacyjnego oraz wdrażanie w Polsce sieci 5G i wybór dostawców infrastruktury dla tej technologii. Prace nad nowelizacją od początku budzą kontrowersje. Zgłoszone w czasie pierwszych – i jedynych konsultacji – uwagi ze strony rynku zostały jednak uwzględnione w stopniu marginalnym, za to w kolejnych wersjach projektu rząd wprowadzał daleko idące zmiany, jak np. pomysł powołania państwowego operatora telekomunikacyjnego. Nie zostały one jednak omówione z rynkiem. Dlatego wątpliwości branży i ekspertów budzą zarówno jego zapisy, jak i tryb procedowania.

– W intencji zapisy tej ustawy mają prowadzić do zwiększenia cyberbezpieczeństwa naszego kraju i szerzej, Unii Europejskiej i NATO, bo jesteśmy częścią tych organizacji. Natomiast sposób, w jaki to jest przeprowadzane, chaos będzie prowadził raczej w kierunku odmiennym. Dlatego jako Krajowa Izba Gospodarcza kilka dni temu wysłaliśmy pismo do premiera, domagając się rzetelnych konsultacji ze wszystkimi interesariuszami rynku telekomunikacyjnego – mówi Andrzej Arendarski.

Jedną z największych kontrowersji w projektowanej ustawie jest od początku mechanizm oceny profilu ryzyka dostawców sprzętu i usług ICT na polski rynek. Ma jej dokonywać rządowe Kolegium ds. Cyberbezpieczeństwa, które pod uwagę weźmie szereg kryteriów technicznych i nietechnicznych. Zgodnie z najnowszą wersją projektu są wśród nich m.in. certyfikaty oraz liczba i rodzaj wykrytych podatności, ale kolegium uwzględni też to, czy dostawca pochodzi spoza UE lub NATO oraz jakie stwarza ryzyko dla realizacji zobowiązań sojuszniczych i europejskich.

Co ciekawe, w pierwotnej wersji projektu jednym z kryteriów było również to, czy w kraju pochodzenia dostawcy są przestrzegane prawa człowieka, jednak rząd po fali krytyki wycofał się z tego pomysłu. Zdaniem rynku i ekspertów narodowościowe kryteria są bowiem wprost wymierzone w dostawców technologii z Chin.

–  Im bardziej radykalna wersja przepisów przejdzie, im krótszy będzie czas na ewentualną wymianę sprzętu, im więcej dostawców zostanie z rynku wyrzuconych, a mówimy o całym zbiorze różnych firm, które produkują sprzęt w Azji i mogą zostać z tego rynku usunięte, tym większe będą koszty. I tutaj mamy, w mojej ocenie, w tej chwili jedną wielką niewiadomą. Natomiast koszty pośrednie i bezpośrednie wzrosną i to jest coś, z czym wszyscy właściwie eksperci, którzy brali udział w dyskusji Zespołu ds. Ochrony Praw Konsumentów i Przedsiębiorców, się zgadzają, i coś, czego rząd nie uwzględnia w swoich analizach i nie komunikuje tego transparentnie społeczeństwu, ile ta operacja może kosztować – mówi Krzysztof Bosak, poseł Konfederacji, który uczestniczył w debacie parlamentarnego zespołu, jaka odbyła się 22 kwietnia br. na terenie Sejmu.

Projektowany w ustawie mechanizm oceny jest istotny o tyle, że na jego podstawie – bazując na opinii Kolegium ds. Cyberbezpieczeństwa – minister właściwy ds. informatyzacji będzie mógł podjąć decyzję o uznaniu danego dostawcy za tzw. dostawcę wysokiego ryzyka, czyli podmiot stanowiący „poważne zagrożenie dla obronności, bezpieczeństwa państwa lub bezpieczeństwa i porządku publicznego”. Nadanie takiego statusu będzie zaś de facto oznaczać wykluczenie z polskiego rynku, bez realnych narzędzi odwoławczych.

– Od tej decyzji nie ma odwołania. To też bardzo dziwi, bo właściwie każde prawo, które w czymś ogranicza przedsiębiorców, powinno mieć swoją drogę odwoławczą. Tutaj takiej drogi nie ma. Decyzja raz podjęta na zawsze wyklucza daną firmę z polskiego rynku telekomunikacyjnego – zauważa Andrzej Arendarski.

Operatorzy i firmy telekomunikacyjne, które korzystają ze sprzętu i usług dostawcy wysokiego ryzyka, zgodnie z ustawą będą zmuszone pozbyć się ich w ciągu kilku lat. To zaś oznacza dla nich wielomiliardowe koszty, związane choćby z wymianą sprzętu na nowy. Eksperci wskazują, że bez wątpienia odbije się to na cenach usług dla klientów.

– Jeżeli wartość zakupu sprzętu w przypadku budowy infrastruktury 5G na jednego operatora to będą kwoty liczone w setkach milionów złotych, to jeśli wiemy, że jest czterech operatorów, daje nam to wartości liczone w miliardach. Operatorzy nie są instytucjami charytatywnymi. To są firmy obliczone na zysk, osiągnięcie jak najlepszych wyników finansowych – wobec tego te koszty będą musiały zostać rozłożone na klientów, którzy korzystają z ich usług – mówi prof. dr hab. Maciej Rogalski, rektor Uczelni Łazarskiego. – Można z pewnym założeniem stwierdzić, że ten wzrost cen usług telekomunikacyjnych będzie o co najmniej kilkanaście procent, jeżeli nie więcej.

Do oceny dostawców sprzętu i usług ICT zostali dopuszczeni – po wielomiesięcznych apelach z rynku – operatorzy i firmy telekomunikacyjne. Taką możliwość dostali jednak tylko najwięksi gracze, którzy w poprzednim roku wypracowali obroty w wymaganej ustawą wysokości (równowartość około 113 mln zł). To oznacza, że MŚP będą z tej procedury wykluczone, co de facto pozbawia je możliwości decydowania o kształcie rynku, na którym prowadzą działalność. Jak wskazuje w liście do premiera KIG, o ile ustawa nakłada obowiązek na 4 tys. przedsiębiorców telekomunikacyjnych, o tyle szczególne uprawnienia przyznano tylko kilkunastu.

 W świetle dotychczasowych zapisów projektów ustawy o cyberbezpieczeństwie małe i średnie firmy mogą poczuć się dyskryminowane, ponieważ są wykluczane z procesu decyzyjnego dotyczącego dopuszczenia na polski rynek dostawców sprzętu spoza krajów Unii Europejskiej i NATO – mówi Andrzej Arendarski. – Trzeba dopuścić do udziału w tym procesie nie tylko te największe firmy, tych gigantów operatorów, ale również przedstawicieli MŚP, choćby w formie izb przemysłowo-handlowych, które zrzeszają takie przedsiębiorstwa.

Eksperci wprost wskazują, że projektowana ustawa o cyberbezpieczeństwie będzie mieć daleko idące konsekwencje ekonomiczne i wpłynie na rozwój polskiego rynku telekomunikacyjnego w nadchodzących latach, dlatego powinna zostać poddana rzetelnym konsultacjom publicznym. Co istotne, jej kształt może mieć też wpływ na relacje między Polską i Chinami, które – w obawie przed dyskryminacją swoich firm – podejmą działania odwetowe wymierzone w przedsiębiorstwa z Polski.

– Tego rodzaju rozwiązanie, że wyklucza się określone podmioty tylko z tej racji, że pochodzą z innego kraju czy innego obszaru gospodarczego, jest zawsze bardzo ryzykowną operacją z punktu widzenia ekonomicznego, prawnego, podstawowych zasad konkurencji. Wykluczenie określonego dostawcy tylko z tego powodu, że pochodzi z innego kraju, oznacza możliwość wygenerowania problemów o charakterze prawnym z tytułu przepisów obowiązujących w regulacjach unijnych, ale także i umów międzynarodowych, które zakładają wolność, swobodę handlu międzynarodowego. To także ryzyko retorsji ze strony krajów, z których pochodzą ci producenci – zauważa prof. Maciej Rogalski.

– Jesteśmy zwolennikami dbania o cyberbezpieczeństwo, ale z uwzględnieniem zasad wolności gospodarczej, nieingerowania w rynek bardziej niż to absolutnie niezbędne. A to powinno wynikać z pewnych obiektywnych miar o charakterze technicznym, z wymagań sprzętowych, z certyfikacji sprzętu i stosowanych zabezpieczeń czy też trybu świadczonego wsparcia w przypadku wystąpienia jakichś zagrożeń, incydentów, awarii, naruszeń – mówi Krzysztof Bosak. – W naszym odbiorze ten sposób konstruowania przepisów ma dużo wspólnego z polityką, a bardzo mało z cyberbezpieczeństwem – zwraca uwagę poseł.

Pandemia i wojna zepchnęły zmiany klimatu na drugi plan. Tymczasem zagrożenia środowiskowe w tym...

Pandemia COVID-19, a teraz wojna w Ukrainie sprawiły, że temat zmian klimatu i ekologii zszedł na drugi plan. Tymczasem – jak wskazywało już dwa lata temu WWF Polska – to właśnie w czasie pandemii Ziemia doświadczyła większego marnotrawstwa żywności i zwiększonej produkcji odpadów, w tym z tworzyw sztucznych, które nie podlegają recyklingowi. Wszystko to przekłada się na ślad węglowy, który musi być ograniczany, aby przeciwdziałać katastroficznym w skutkach zmianom klimatu. O tym właśnie przypomina nowa kampania Ministerstwa Klimatu i Środowiska – Nasz Klimat, której celem jest podniesienie świadomości na temat możliwych proekologicznych działań każdego z nas. Także przypadający 22 kwietnia Światowy Dzień Ziemi jest dobrą okazją do ekologicznej edukacji.

– W Polsce widzimy co roku zmiany klimatu, które dotykają każdego z nas. To są m.in. susze, opady, które są bardziej intensywne niż kiedyś. I to rodzi oczywiście konsekwencje dla naszego codziennego życia. Dlatego też powinniśmy podejmować działania w trosce o naszą przyszłość jako kraj i społeczeństwo i redukować emisję gazów cieplarnianych, żeby ograniczać wpływ zmian klimatu na nasze życie – mówi agencji Newseria Biznes Adam Guibourgé-Czetwertyński, podsekretarz stanu w Ministerstwie Klimatu i Środowiska.

Jeżeli globalne ocieplenie ma zostać zahamowane w granicach bezpiecznego progu 1,5–2°C, trzeba szybko i mocno obciąć emisje gazów cieplarnianych, ale również usunąć nadmiar CO2 z powietrza – to najważniejsze wnioski ekspertów Międzyrządowego Panelu ds. Zmian Klimatu (IPCC) działającego przy ONZ. Z przygotowanego przez niego raportu wynika, że już od 3,3 do 3,6 mld ludzi na całym świecie odczuwa skutki zmian klimatu w postaci powodzi, suszy, klęsk żywiołowych, rekordowych upałów i pożarów. Skutki tych zmian nie omijają też Polski.

Prognozy IPCC zakładają, że przy dużym wzroście globalnej temperatury w Polsce liczba ofiar śmiertelnych z powodu upałów może w kolejnych latach wzrosnąć nawet trzykrotnie, do ok. 3 tys. rocznie, co pociągnie za sobą m.in. problem przeciążenia służby zdrowia. Nasilą się gwałtowne zjawiska pogodowe, susze będą częstsze i bardziej dotkliwe. Problemem mogą się też okazać niedobory wody dla ludzi i przemysłu, skutkujące stratami ekonomicznymi. W scenariuszu utrzymania wysokich emisji gazów cieplarnianych do końca wieku niedoborów wody pitnej może w efekcie doświadczać nawet ok. 15 mln Polaków.

Jednym z największych grzechów dotyczących środowiska i zmian klimatu jest brak poczucia sprawczości. Wydaje nam się, że nasze pojedyncze, jednostkowe decyzje absolutnie nie mają wpływu na to, co się zadzieje z kondycją planety. To, czy podniesiemy śmieć, który leży na ulicy, albo czy wrzucimy plastik, butelkę po oleju czy słoik do odpowiedniego kosza wydaje się nam bez znaczenia, bo ktoś to później za nas załatwi, te śmieci później się jakoś rozpłyną. Otóż nie, to wszystko do nas wraca. Każda negatywna decyzja odbije się w pewnym momencie w postaci emisji gazów cieplarnianych, które powinniśmy ograniczać po to, żeby planeta nam się nie przegrzewała. Ta planeta spokojnie sobie bez nas poradzi, my bez niej nie – mówi Sylwia Majcher, edukatorka ekologiczna i influencerka.

Plusem jest to, że prowadzone cyklicznie badania pokazują stopniowy wzrost świadomości i postaw proekologicznych wśród Polaków. Z raportu CBOS („Świadomość ekologiczna Polaków” 2020) wynika, że 53 proc. ma obawy o stan środowiska w Polsce, a ogromna większość (81 proc.) uważa, że ich własne zachowania i styl życia istotnie przekładają się na jego stan.

Podobne wnioski płyną z badania trackingowego przeprowadzonego dla Ministerstwa Klimatu i Środowiska, które dotyczy świadomości i zachowań ekologicznych Polaków. W jego ostatniej edycji prawie 3/4 Polaków zadeklarowało, że środowisko trzeba chronić z uwagi na przyszłe pokolenia. To najwyższy wynik uzyskany na przestrzeni wszystkich edycji tego badania. Wynika z niego również, że w trosce o klimat i środowisko ponad 96 proc. Polaków deklaruje regularne segregowanie odpadów, a ponad 3/4 jest skłonnych wydawać więcej na „czystą” energię. Polacy znacznie częściej niż w poprzednich latach zwracają też uwagę na ograniczenie zużycia wody (ponad 90 proc. wskazań) i wybierają rozwiązania ekologiczne – nawet wtedy, gdy oznacza to dodatkowy koszt (82 proc.). 61 proc. zadeklarowało także skłonność do korzystania z roweru bądź komunikacji miejskiej zamiast samochodu.

Przy wdrażaniu prośrodowiskowych postaw w społeczeństwie kluczowa jest edukacja dzieci. Myślę, że wszyscy rodzice zetknęli się kiedyś z pytaniami typu: „mamo, a dlaczego wyrzucamy baterie do tego worka na śmieci, a nie odnosimy ich do sklepu” albo „dlaczego nie segregujemy śmieci?” – mówi Adam Guibourgé-Czetwertyński.

W ramach edukacji ekologicznej, kierowanej zwłaszcza do dzieci i młodzieży, Ministerstwo Klimatu i Środowiska zainaugurowało na początku kwietnia kampanię Nasz Klimat. Jej celem jest podniesienie świadomości na temat indywidualnych działań, jakie każdy może podejmować na rzecz ochrony klimatu, w myśl hasła „Klimat tworzą ludzie”.

– Ogólnopolska kampania Nasz Klimat ma na celu zaprezentowanie takich działań, które są możliwe do podjęcia na rzecz ochrony klimatu przez każdego z nas – mówi podsekretarz stanu w Ministerstwie Klimatu i Środowiska. – W ramach tej kampanii przygotowaliśmy materiały dla samorządów i materiały dla szkół, które mogą być wykorzystane do przeprowadzenia lekcji na temat ochrony klimatu. Uruchomiliśmy też konkurs dla szkół ponadgimnazjalnych – wideoolimpiadę, w której grupy uczniów mogą wspólnie proponować działania, jakie można podjąć na rzecz klimatu.

Aby trafić do młodego pokolenia, kampania Nasz Klimat obejmuje też współpracę z blogerami i influencerami, którzy na co dzień poruszają zagadnienia związane z klimatem i ochroną środowiska. Akcja ma jednak trafić do odbiorców w różnym wieku, dlatego będzie prowadzona wielokanałowo, m.in. za pośrednictwem prasy, radia, internetu i social mediów. W telewizji będzie można zobaczyć spoty pokazujące, jak niewiele potrzeba, aby wdrożyć ekologiczne nawyki do codziennego życia. Z kolei w materiałach dla samorządów znalazły się praktyczne porady, w jaki sposób wdrażać proklimatyczne działania w gminie. 

Coraz więcej firm i instytucji bierze udział w tworzeniu Polskiej Doliny Medycznej. Pierwsze projekty...

W ciągu dziewięciu miesięcy działalności Warsaw Health Innovation Hub inicjatywa Agencji Badań Medycznych pozyskała 20 partnerów. To podmioty z szeroko pojętego sektora medycznego, które wspólnie chcą pracować nad innowacjami w branży i usprawniać tym samym polski system opieki zdrowotnej z korzyścią dla pacjentów. Pierwsze projekty już są gotowe. Dotyczą one m.in. wykorzystania sztucznej inteligencji oraz personalizowania terapii w onkologii. Współpraca podmiotów publicznych i firm prywatnych, m.in. producentów leków i technologii medycznych, ma w założeniu doprowadzić w ciągu kolejnych dwóch–trzech lat do powstania Polskiej Doliny Medycznej.

 Pierwsze projekty w ramach Warsaw Health Innovation Hub już się pojawiły. To są ciekawe rozwiązania z zakresu sztucznej inteligencji, z zakresu personalizowanej terapii w chorobach onkologicznych i aplikacji pomagających pacjentom świadomie uczestniczyć w procesie leczniczym – podkreśla w rozmowie z agencją Newseria Biznes dr hab. n. med. Radosław Sierpiński, prezes Agencji Badań Medycznych.

Warsaw Health Innovation Hub (WHIH) to utworzony w czerwcu ub.r. projekt Agencji Badań Medycznych, do którego dołączają firmy z sektora medycyny, technologii, farmacji i biotechnologii. To zarazem pierwsza taka inicjatywa w Europie Środkowej, która ma usprawnić współpracę sektora publicznego z biznesem. Jej celem jest tworzenie innowacyjnych rozwiązań medycznych, technologicznych i prawnych na rzecz poprawy wydajności polskiego systemu ochrony zdrowia i podnoszenia standardów świadczonych usług. Jak wskazuje Ministerstwo Zdrowia, powołanie WHIH to zupełnie nowe podejście do rozwoju opieki zdrowotnej w Polsce.

– Ta inicjatywa ma za zadanie połączyć ze sobą interesariuszy publicznej służby zdrowia oraz firmy farmaceutyczne i biotechnologiczne, które w tym systemie uczestniczą, np. dostarczając innowacyjne rozwiązania, terapie i nowe leki – mówi dr hab. Radosław Sierpiński. – Chcemy tworzyć platformę, która umożliwi szeroką dyskusję na temat tego, co jest potrzebne w tym systemie, jakie rozwiązania znalazłyby aprobatę na poziomie ministra zdrowia. Chcemy też, aby te firmy miały świadomość tego, jakie kierunki system ochrony zdrowia będzie podejmował, w którą stronę zmierzamy i jak możemy wypracowywać sytuacje win-win, gdzie z jednej strony korzystamy z ekspertyzy międzynarodowych koncernów, a z drugiej strony – polscy pacjenci zyskują dostęp do nowoczesnych terapii i metod diagnostycznych, które w innym przypadku nie byłyby dostępne.

WHIH ma stworzyć takie warunki, które pozwolą na szybkie przekształcanie pomysłów w nowe produkty i usługi. Działalność hubu ma dotyczyć trzech obszarów – innowacji farmaceutycznych (w tym technologii medycznych), innowacji w zakresie wyrobów medycznych oraz cyfrowych rozwiązań w obszarze służby zdrowia. Celem jest także wsparcie dla polskiego sektora biotechnologicznego i niezależności Polski w zakresie bezpieczeństwa lekowego. W dalszej perspektywie rozwój WHIH ma stworzyć zalążek pierwszej Polskiej Doliny Medycznej, która powstanie dzięki silnej, krajowej bazie akademickiej i najlepszych europejskich wzorcach.

– Polska Dolina Medyczna to plan, który nadal realizujemy, choć został on w pewnym stopniu przerwany przez pandemię koronawirusa. Chcemy jednak, żeby w którymś momencie ten potencjał współpracy na poziomie biznesu i partnerów publicznych faktycznie zaistniał. Na razie wspomniana Dolina Medyczna powstaje w  wirtualnym wydaniu, w ramach Agencji Badań Medycznych. Mam nadzieję, że w ciągu dwóch–trzech lat przeniesie się do fizycznej lokalizacji i stanie się zaczątkiem współpracy między naukowcami, klinicystami, między sektorem prywatnym i interesariuszami publicznymi – podkreśla prezes ABM.

Jak dotąd prywatni partnerzy Warsaw Health Innovation Hub będą inicjować i finansować we własnym zakresie programy ukierunkowane na tworzenie innowacji wspierających polską służbę zdrowia. Poza tym w ramach funduszy grantowych będą też inwestować w najlepsze zespoły badawcze z Polski i opracowywane przez nie rozwiązania. Polscy naukowcy zyskają dzięki temu możliwość współpracy z największymi, globalnym firmami w zakresie biotechnologii i innowacji.

– Warsaw Health Innovation Hub jest unikalną na skalę Europy platformą, posiadającą olbrzymi potencjał do wprowadzenia znaczących usprawnień w sektorze ochrony zdrowia – podkreśla Marcin Bruszewski, dyrektor generalny Health Systems w Philipsie, jednym z partnerów, który pod koniec ubiegłego roku dołączył do WHIH. – Philips od ponad 130 lat na świecie i 100 lat w Polsce wdraża rozwiązania oparte na technologiach i innowacjach, zmieniając życie ludzi na lepsze. Są to wartości, które obok wieloletniego doświadczenia i stojącego za nim zrozumienia lokalnej służby zdrowia chcemy wnieść do współpracy z WHIH.

Prezes Agencji Badań Medycznych wskazuje, że WHIH błyskawicznie się rozwija. Podczas inauguracji w czerwcu ub.r. do inicjatywy przystąpiło pięć firm, teraz jest już ich 20.

– Warsaw Health Innovation Hub rozrasta się w sposób przekraczający nasze oczekiwania – mówi dr Radosław Sierpiński. – To pokazuje potrzebę istnienia tego typu instytucji w dyskursie publicznym. W tym jednym miejscu gromadzimy interesariuszy publicznych oraz globalne i polskie firmy, które działają wspólnie, i okazuje się, że często mają wspólne interesy, wspólne pomysły na to, w co zaangażować badaczy. Myślę, że ostatecznym beneficjentem tych działań będzie pacjent.

– Jako partner WHIH zależy nam przede wszystkim na współpracy i otwartym dialogu. Cieszymy się, że już teraz  jest to możliwe. Wszystkie zaangażowane strony – nauka, strona rządowa i biznes – są bardzo otwarte, żeby wypracowywać rozwiązania, które będą mieć faktyczne znaczenie dla gospodarki i ludzi – dodaje Marcin Bruszewski.

W skali globalnej Philips Healthcare jest liderem m.in. w obszarze nowych technologii medycznych, diagnostyki obrazowej oraz nowoczesnej opieki zdrowotnej świadczonej poza murami szpitala czy innej placówki medycznej. Na zlecenie Philipsa przygotowywany jest także globalny raport Future Health Index, obejmujący również polski rynek, dostarczający każdego roku informacji na temat wyzwań i problemów w sektorze ochrony zdrowia. To pierwsza firma z sektora medtech, która dołączyła do Warsaw Health Innovation Hub.

– Jeśli chodzi o warunki uczestnictwa w WHIH, przyjęliśmy, że muszą to być firmy, które są przyjaciółmi polskiej gospodarki, czyli takie, które w Polsce odprowadzają podatki i zatrudniają pracowników, które uczestniczą w budowaniu polskiego potencjału gospodarczego. Nie zgadzamy się na to, aby były to firmy, które utrzymują tutaj jednego czy dwóch swoich foreign officers, ale uciekają gdzieś za granicę. Chcemy, żeby to był kapitał, który w jakiś sposób w polskiej gospodarce uczestniczy – dodaje prezes ABM.

Globalni giganci rejestrują swoje znaki towarowe w metawersum. Ochrona prawna działa także w wirtualnej...

Koncepcja metawersum zakłada, że za kilka czy kilkanaście lat w wirtualnej rzeczywistości awatary będą np. jeździć samochodami albo nosić ubrania z logo marek, które istnieją realnie, albo składać zamówienia na wynos w cyfrowych restauracjach, z których jedzenie w ciągu kilku godzin zostanie dostarczone pod drzwi w prawdziwym świecie. Większość firm będzie zmuszona zaistnieć w metawersum, żeby utrzymać konkurencyjność, dlatego wiele z nich już teraz zaczyna przywiązywać dużą wagę do ochrony swojej własności intelektualnej i przemysłowej w tym nowym wirtualnym świecie. Na przestrzeni ostatnich miesięcy cały szereg globalnych marek – takich jak Nike, McDonald’s czy L&HASH39;Oreal – podjął już działania w tym kierunku.

– Ochrona znaków towarowych obowiązuje zarówno w świecie rzeczywistym, jak i wirtualnym. Mamy już teraz szereg sporów, które dotyczą właśnie tego świata wirtualnego – mówi agencji Newseria Biznes Monika Zielińska, adwokat i rzecznik patentowy z Kancelarii Patentowej Patpol.

Odkąd jesienią ub.r. Mark Zuckerberg, szef Facebooka, przedstawił koncepcję Metaverse’u, czyli wirtualnego, stworzonego od podstaw świata, który będzie funkcjonować równolegle z tym rzeczywistym, coraz więcej światowych marek decyduje się zawczasu zadbać o ochronę prawną swoich znaków towarowych w tej nowej przestrzeni. Jak dotąd na taki krok zdecydowały się już m.in. Nike, L’Oreal, Walmart, Burberry i Ralph Lauren czy sieć restauracyjna McDonald’s, która niedawno złożyła w amerykańskim US Patent and Trademark Office kilkanaście wniosków dotyczących opatentowania używanych przez nią znaków towarowych.

 Trzeba jednak mieć na względzie to, że przynajmniej dziś te znaki powinny być używane równolegle w świecie rzeczywistym i wirtualnym. Stosowanie ich tylko w świecie wirtualnym mogłoby bowiem prowadzić do sytuacji, w której one nie będą używane zgodnie ze specjalizacją, czyli dla określonych towarów i usług. W przypadku stosowania znaków towarowych tylko w rzeczywistości wirtualnej one będą pełniły jedynie funkcję reklamową lub gwarancyjną, a nie będą sensu stricto oznaczały pochodzenia towaru – mówi Monika Zielińska.

Jak ocenia, w przypadku znaków towarowych stosowanych wyłącznie w wirtualnej rzeczywistości zastosowanie będą mieć raczej umowy licencyjne na ich rozpowszechnianie.

W dalszej perspektywie może się okazać, że prawa wyłączne, skuteczne erga omnes, jak na przykład prawa płynące z rejestracji znaków towarowych, zaczną tracić na znaczeniu na rzecz zobowiązań umownych, np. umów licencyjnych na korzystanie z danej marki czy danego utworu – wyjaśnia ekspertka Patpolu. – Jeśli chodzi o znaki towarowe w wirtualnej rzeczywistości, istnieje też duże prawdopodobieństwo, że nie zostanie spełniona przesłanka stosowania tych znaków w odniesieniu do określonego terytorium. Znaki są przecież chronione terytorialnie. Dlatego nie wiadomo, jak orzecznictwo podejdzie do stosowania znaków chronionych w metawersum.

Mimo wielu wątpliwości ekspertka ocenia, że nie będzie jednak konieczności uchwalania osobnych procedur dotyczących ochrony znaków towarowych w prawdziwej i wirtualnej rzeczywistości. Już w tej chwili istnieją bowiem regulacje prawne służące rozwiązywaniu sporów w tym zakresie.

Mieliśmy już wcześniej nadużycia dotyczące znaków towarowych w świecie wirtualnym, np. w adresach domen – mówi Monika Zielińska.

Analitycy są przekonani, że z czasem większość firm i dużych, światowych marek będzie zmuszona zaistnieć w metawersum, żeby utrzymać konkurencyjność zarówno na rzeczywistym, jak i cyfrowym rynku. Dlatego wiele z nich już w tej chwili zaczyna przywiązywać dużą wagę do ochrony swojej własności intelektualnej i przemysłowej w świecie wirtualnym. W tej kwestii wciąż istnieje szereg wątpliwości, dotyczących np. kształtu przyszłego systemu prawnego czy ochrony praw autorskich, chociażby problemu przypisywania autorstwa sztucznej inteligencji.

Pewne jest jednak, że ważną rolę na cyfrowym, wirtualnym rynku mają szansę odegrać NFT (ang. non-fungible tokens) – rodzaj kryptograficznego tokena, który pełni rolę certyfikatu potwierdzającego, że dany plik to oryginał istniejący tylko w jednym egzemplarzu. I choć plik, który jest przedmiotem sprzedaży, można kopiować i powielać, to oryginał z certyfikatem NFT jest tylko jeden. Wszystkie transakcje z jego udziałem i informacje dotyczące np. kwoty transakcji, nabywcy, sprzedawcy i znacznika czasu są publiczne i można je sprawdzić. Podobnie jak w przypadku kryptowalut handel NFT odbywa się za pośrednictwem sieci blockchain. Część ekspertów wskazuje jednak, że rynek niewymienialnych tokenów będzie wymagać uregulowania, jeśli ma znaleźć masowe zastosowanie w wirtualnym świecie, ponieważ już teraz – w tym rzeczywistym świecie – ta technologia budzi szereg wątpliwości m.in. w kontekście praw autorskich.

– Tokeny NFT mają gwarantować poświadczenie autentyczności za pomocą technologii blockchain. Natomiast dzisiaj wciąż weryfikacja tych gwarancji jest utrudniona. Zarówno nabywcy, jak i autorzy tokenizowanych dzieł i utworów mogą mieć trudności, żeby sprawdzić, co rzeczywiście jest zakodowane w tym blockchainie – mówi rzecznik patentowy z Kancelarii Patentowej Patpol.

Nowoczesne systemy wspomagania kierowcy sposobem na redukcję liczby wypadków. Od nich już tyko krok...

Według Światowej Organizacji Zdrowia co roku na świecie w wypadkach drogowych ginie ok. 1,35 mln osób, co oznacza jedną osobę co 24 sekundy. Badania prowadzone w Europie i USA wykazują, że ponad 90 proc. tych wypadków jest powodowana niewłaściwym zachowaniem człowieka. W Polsce, jak wynika z danych Policji, w 2021 roku na blisko 23 tys. wypadków drogowych aż 90,4 proc. zostało spowodowanych przez kierującego. Szansą na poprawę tych statystyk są systemy wspomagania kierowcy, które w dużym stopniu automatyzują jazdę. Niektóre z nich są już obowiązkowe w nowych autach. Nie wszyscy kierowcy jednak o tych systemach wiedzą, umieją z nich korzystać i mają do nich zaufanie – pokazuje raport Instytutu Transportu Samochodowego opracowany w ramach projektu „Polska droga do automatyzacji transportu”.

Od połowy tego roku wszystkie nowe auta będą musiały być wyposażone w system monitorowania zmęczenia kierowcy. Na podstawie danych – dotyczących m.in. toru jazdy, sposobu hamowania, ruchu kierowcy, czasu jazdy oraz pory dnia bądź nocy – taki system wykrywa anomalie i informuje kierowcę o konieczności zrobienia sobie przerwy. Z danych Policji wynika, że zmęczenie i zaśnięcie doprowadziło w ubiegłym roku do 538 wypadków w Polsce, w których zginęły 92 osoby, a 745 zostało rannych.

 Mają to być systemy wspomagające kierowcę w zdarzeniach związanych właśnie z rozproszeniem i nieuwagą, żeby ograniczyć liczbę wypadków tym wywołanych – mówi agencji Newseria Biznes dr inż. Mikołaj Kruszewski, kierownik Centrum Telematyki Transportu, ekspert Centrum Kompetencji Pojazdów Autonomicznych i Połączonych w Instytucie Transportu Samochodowego.

Do najpopularniejszych i najczęściej montowanych systemów wspomagania jazdy należą m.in. aktywny tempomat, który umożliwia automatyczną regulację prędkości w zależności od bieżącej sytuacji na drodze, system aktywnego/awaryjnego hamowania, który monitoruje przestrzeń przed pojazdem i wykrywa znajdujące się przed nim przeszkody, asystent zmiany pasa ruchu, system wykrywania obiektów w tzw. martwym polu czy asystent parkowania. Część tego typu systemów jest już obowiązkowa w nowych autach, ale kierowcy nie zawsze są świadomi, że te systemy posiadają i do czego one służą.

Mnogość tych systemów w różnych markach i modelach pojazdów powoduje, że w każdym z nich możemy się spotkać z trochę innym systemem, inaczej obsługiwanym, który wyświetla inne komunikaty, ma inne spektrum działania. To powoduje różne reakcje kierowców. Jeśli ktoś będzie czuł przeładowanie bodźcami – tymi ikonkami, sygnałami dźwiękowymi etc. – to może stronić od tych systemów i unikać ich używania. Z drugiej strony może popaść w pewną euforię i korzystać z tych systemów coraz więcej i częściej, niekoniecznie przejmując się tym, czy one działają prawidłowo w danych warunkach. Może też nie przykładać do jazdy tyle uwagi, ile powinien, powodując na drodze sytuacje niebezpieczne – mówi dr inż. Mikołaj Kruszewski.

Eksperci Instytutu Transportu Samochodowego i 95 proc. badanych wskazują, że systemy automatyzujące jazdę mogą pomóc w ograniczeniu liczby wypadków drogowych. Raport ITS wskazuje, że przykładowo system automatycznego hamowania czy system obserwacji przestrzeni za samochodem wyjeżdżającym prostopadle na drogę poprzeczną mogą zapobiegać wypadkom z powodu nieustąpienia pierwszeństwa przejazdu. Aktywny tempomat i system rozpoznawania znaków drogowych z kolei pomagają dostosować prędkość do warunków na drodze. Statystyki Policji wskazują, że nadmierna prędkość i wymuszenie pierwszeństwa to dwie główne przyczyny wypadków z winy kierującego (odpowiednio 5,5 tys. oraz 5,2 tys. wypadków). Błąd człowieka prowadzi do większości wypadków. Policja wskazuje, że za 90,4 proc. z nich odpowiada kierowca, do 5,3 proc. dochodzi z winy pieszego, a w 0,5 proc. – z winy pasażera. Dla przykładu niesprawność techniczna pojazdu „zawiniła” w 0,2 proc. przypadków.

– Nasze badania, które dotyczyły systemów wspomagania jazdy, wykazały, że to, jak kierowcy na nie reagują, jest kwestią bardzo indywidualną. Niektórzy bardzo chętnie oddają kontrolę, nie czują stresu czy trudności z tym związanych. Inni kierowcy mają z tym bardzo duży problem, muszą kilkukrotnie ćwiczyć, żeby zaufać systemowi i nie wyłączać go po chwili odruchowo. Przykładowo kiedy system zaczyna robić korektę kierunku ruchu, oni od razu chwytają za kierownicę, bo nie czują kontroli nad pojazdem. Dlatego systemy wspomagania jazdy powinny być dopracowywane tak, żeby dostosowywać się do indywidualnego kierowcy i żeby proces przejścia na automat był jak najbardziej płynny – mówi ekspert ITS.

Jak wynika z badania Instytutu, respondentom najtrudniej było zaufać systemowi ostrzegania o obiekcie w martwym polu. Tylko 23 proc. zaufało mu w zupełności w czasie jazd testowych. Największe zaufanie można zauważyć w odniesieniu do aktywnego tempomatu. Aż 70,7 proc. przejazdów odbyło się w poczuciu całkowitego bądź dużego zaufania.

Wielu badanych podkreśliło, że świadomość posiadania aktywnych systemów, jak również pełne zaufanie do ich nieomylności, może usypiać czujność kierowców. Zdecydowana większość jednak odczuwała bardzo wysoki lub wysoki poziom komfortu z ich użytkowania, niezależnie od rodzaju systemu. Podobne deklaracje dotyczyły poczucia bezpieczeństwa. To dobrze wróży procesowi dochodzenia do pełnej automatyzacji w motoryzacji.

 Pojęcie „samochody autonomiczne” obejmuje szeroki zakres ich wykorzystania w zależności od tego, w jakich warunkach one mają być użytkowane. Już w tej chwili widzimy pojazdy autonomiczne, np. autobusy, które poruszają się na niektórych lotniskach, na wydzielonych obszarach. Dużo bliżej są samochody autonomiczne lub prawie autonomiczne, które będą mogły jeździć po autostradach czy drogach szybkiego ruchu, ponieważ uważa się je za bliskie już istniejących systemów wspomagania kierowcy. Natomiast prawdziwa autonomia, która nie wymaga już interwencji kierowcy, wydaje się kwestią jeszcze przynajmniej 10 lat. To optymistyczne szacunki – mówi Anna Niedzicka, ekspertka Centrum Telematyki Transportu oraz Centrum Kompetencji Pojazdów Autonomicznych i Połączonych w Instytucie Transportu Samochodowego.

Jak wskazuje, jedną z największych barier w rozwoju w pełni autonomicznego transportu wciąż pozostają m.in. możliwości technologiczne czy wysokie ceny. Kolejną przeszkodą jest brak odpowiednich regulacji, które pozwoliłyby bezpiecznie dopuścić je do ruchu drogowego.

– Pojazdy autonomiczne pojawią się na polskich drogach już niedługo, pod warunkiem że wejdą odpowiednie przepisy, które pozwoliłyby na ich testowanie i użytkowanie. W tej chwili wciąż czekamy na pomysły legislacji, które pozwolą przynajmniej wprowadzić samochody autonomiczne do testów, tak żeby wszyscy czuli się bezpiecznie, tak żeby można było je dopuścić do ruchu i żeby sprawować nad tym jakąś kontrolę – mówi Anna Niedzicka.

Człowiek w samochodzie przyszłości był tematem dyskusji w czasie kwietniowego Good Morning Science. To comiesięczne spotkania skupione wokół innowacji w nauce. Są organizowane w ramach klubu Trend House założonego przez Fundację Venture Café Warsaw. Misją klubu jest łączenie innowatorów oraz rozwiązywanie ważnych problemów społecznych, ekonomicznych i technologicznych. Trend House obecnie liczy ponad 240 członków, w tym osobistości ze świata nauki, biznesu i ekosystemu innowacji. Gospodarzem formatu jest znany popularyzator nauki Wiktor Niedzicki, jeden z członków klubu, który co miesiąc zaprasza gości, by zaprezentowali najnowsze naukowe dokonania polskich zespołów badawczych.

Stay connected

20,831FaniLubię
2,506ObserwującyObserwuj
0SubskrybującySubskrybuj
- Advertisement -

Latest article

Mieszanie różnych włókien tkanin utrudnia ich recykling. Świadomy dobór materiałów na etapie produkcji kluczem...

Do 2050 roku populacja na Ziemi wzrośnie do blisko 10 mld osób,  a w ślad za nią także popyt na odzież. Przemysł modowy jest już dziś jednym z największych emitentów gazów cieplarnianych – emituje 1,2 mld t ekwiwalentu CO2 na rok, czyli więcej niż łącznie branże żeglugowa i lotnicza. Produkowanie większej ilości ubrań to nie tylko większa emisja, ale też coraz większe zużycie surowców. Jedną z proponowanych inicjatyw, by ograniczyć ten negatywny wpływ, jest recykling tkanin i przywracanie materiałów do obiegu. Nie jest to jednak takie proste, szczególnie w przypadku włókien mieszanych.

Raport Światowego Forum Ekonomicznego z 2021 roku stawia przemysł modowy wraz z łańcuchami dostaw na trzecim miejscu pod względem zatruwania środowiska, zaraz po produkcji żywności i budownictwie. Jednym ze sposobów zmniejszenia tych emisji jest stosowanie recyklingu włókien, jeśli jest to wykonalne. Raport Banku Światowego wskazuje, że 87 proc. tkanin ze zużytej odzieży jest spalanych lub wysyłanych na wysypiska śmieci. 

Mówiąc w dużym uproszczeniu, ubrania można przetworzyć. Łatwiej jest to zrobić, kiedy wykonane są one z materiałów jednorodnych, bo im bardziej skomplikowany materiał, tym jest trudniejszy do przetworzenia. Jako przykład można podać np. swetry czy spodnie, które zazwyczaj są wykonane z jednego rodzaju surowca, i one są łatwe do przetworzenia – wyjaśnia w rozmowie z agencją Newseria Biznes Łukasz Marzec, prezes Polfibry. – Materiały bardziej złożone typu kurtki, płaszcze zrobione z tkanin bawełnianych, ale z wypełnieniami poliestrowymi, jest zdecydowanie ciężej odzyskać i jest to bardziej kosztowne.

Recykling tekstyliów jest możliwy zarówno w przypadku materiałów syntetycznych takich jak poliester, poliamid czy polipropylen, jak i naturalnych, jak wełna, bawełna czy len. Według Textile Exchange poliester poddany recyklingowi mechanicznemu generuje o 70 proc. mniej emisji niż pierwotna produkcja poliestrowych włókien. Łukasz Marzec wyjaśnia, że wymieszanie włókien sztucznych i naturalnych w pewnym stopniu uniemożliwia odzysk.

Ostatnio coraz więcej materiałów tworzy się z włókien złożonych, czyli np. wełna jest mieszana z poliamidem albo poliestrem, czyli włókna naturalne z włóknami sztucznymi. Kiedyś stosowano tylko jeden rodzaj włókien. To się moim zdaniem w jakimś stopniu zmienia na gorsze ze względu na to, że wymieszanie uniemożliwia odzysk tych włókien – podkreśla prezes Polfibry. – Materiały jednorodne typu czysty poliester, czysta bawełna są dosyć proste do rozwłóknienia, do odzyskania, natomiast w przypadku materiałów laminowanych, powlekanych, wypełnianych jakimiś innymi surowcami w pewnym momencie robi się to po prostu nieopłacalne.

Polfibra, spółka z Częstochowy, skupia się na zagospodarowaniu odpadów z przemysłu tekstylnego. Odbiera i poddaje recyklingowi odpady z wielu grup materiałowych i z różnych etapów produkcji. To m.in. ścinki z krojowni, resztki przędz czy włókna, które pochodzą m.in. ze szwalni, przędzalni czy od producentów mebli tapicerowanych. Tam gdzie recykling nie jest możliwy, firma stosuje różne metody utylizacji odpadów tekstylnych.

Materiały do produkcji ubrań odzyskuje się poprzez rozwłóknianie mechaniczne, mówimy tutaj o ścinkach z produkcji odzieży, nie o gotowych wyrobach. Więc cała resztka z beli materiału, która pozostaje na stole, jest do odzysku – mówi Łukasz Marzec. – Są firmy i instalacje, które specjalizują się w odzysku danego rodzaju włókien, więc włókna sztuczne będziemy odzyskiwali w inny sposób, w innej instalacji, a włókna naturalne w innej.

Ekspert tłumaczy, że w procesie rozwłókniania powstaje tzw. włókno regenerowane, czyli luźne włókna danego surowca. Można je później na przykład skręcić, stworzyć przędzę, z której następnie powstaje tkanina, a z niej szyte są ubrania. Z włókien można stworzyć także różnego rodzaju filce, które znajdą zastosowanie w przemyśle, np. jako wygłuszenia w drzwiach samochodów, jako izolacja termiczna w lodówkach czy warstwa dystansowa pomiędzy elementami mebli tapicerowanych. 

Bardzo ważne jest, aby uświadomić ludziom, że odpady tekstylne mogą zostać poddane recyklingowi, ale należy traktować je w odpowiedni sposób, nie jako śmieci, ale jako surowiec do odzysku.

Główną zasadą jest to, że materiały, które poddajemy recyklingowi, powinny być czyste. Odzież używana bardzo często jest składowana w różnych miejscach, gdzie dostaje się wilgoć czy jakieś zanieczyszczenia, a to uniemożliwia odzysk. Natomiast jeżeli te materiały są składowane w odpowiedni sposób czy też są prane przed odzyskiem, to jak najbardziej możemy je poddać recyklingowi – podkreśla prezes Polfibry.

Jak dodaje, sam proces odzysku włókien także jest ekologiczny.

– Alternatywą dla odzysku jest utylizacja termiczna czy składowanie na wysypisku, więc jest to jak najbardziej ekologiczne rozwiązanie. A sam proces polega tylko na mechanicznym rozwłóknianiu tych materiałów, więc nie powstają tam żadne dodatkowe odpady, jakieś rzeczy toksyczne, jedynie kurz z materiału, który jest rozwłókniany – mówi Łukasz Marzec. – Zdecydowanie recykling wszystkich materiałów to przyszłość, brakuje nam surowców na świecie, generujemy bardzo dużo odpadów, więc moim zdaniem to jedyny kierunek, w którym powinniśmy się kierować.

Popyt na pożyczki rośnie. Rynek napędza szybki rozwój e-zakupów, ale mogą go przyhamować nowe...

– Można powiedzieć, że tradycyjne pożyczanie robi się passé, bo potrzeby pożyczkowe klientów zmieniają się wraz z ich zwyczajami zakupowymi – mówi Katarzyna Jóźwik, dyrektor generalna Smartney. Jak wskazuje, w ciągu ostatnich 10 lat branża pożyczkowa przeszła olbrzymią transformację, obejmującą m.in. wykorzystanie nowych technologii, nowe formy płatności czy zmiany nawyków konsumentów. Mimo że wciąż są grupy klientów doceniające wizyty w oddziałach, rozmowy z doradcą i tolerujące wymagania tradycyjnych procesów, dziś na kształt branży wpływa błyskawiczny rozwój e-commerce i kanałów online, ale też nowe regulacje, które mogą się okazać dla niej hamulcem. Jednak eksperci oceniają, że branża będzie rosnąć tak długo, jak utrzyma się popyt na jej produkty. A ten sukcesywnie rośnie.

 Tradycyjne pożyczki pozostaną na rynku tak długo, jak będą atrakcyjnym rozwiązaniem dla klientów i będą odpowiadać na ich preferencje. Natomiast przyszłość tego rynku jest w onlinie. Już od kilku lat widać jego szybki rozwój i on będzie kontynuowany, ponieważ świat się digitalizuje, w przestrzeni online’owej pojawiają się nowe pojęcia jak metaverse i kto wie, jak nową przestrzeń zagospodarują produkty kredytowe – mówi agencji Newseria Biznes Katarzyna Jóźwik, dyrektor generalna Smartney.

Jak wynika z danych CRIF przytaczanych przez Fundację Rozwoju Rynku Finansowego, w marcu firmy pożyczkowe udzieliły pożyczek o wartości o prawie 18 proc. wyższej niż w lutym br. i o prawie jedna czwartą wyższej niż rok temu. Liczba pożyczek wzrosła odpowiednio o 12,1 proc. oraz 15,3 proc. W tym miesiącu jedynie w pierwszym tygodniu widoczny był wpływ wojny w Ukrainie, podobnie jak w ostatnim tygodniu lutego, kolejne dni przyniosły jednak odbicie. Średnia wartość udzielonej pożyczki w marcu ukształtowała się na poziomie prawie 3,4 tys. zł, co oznacza, że wzrosła o 4,8 proc. wobec lutego br. i o 8,3 proc. wobec marca 2021 roku.

Te statystyki pokazują, że rynek pożyczkowy, którego nie ominęły skutki pandemii COVID-19, wyszedł już na prostą. Kolejnym hamulcem mogą jednak się okazać nowo projektowane regulacje, wprowadzające limity odsetek i kosztów pozaodsetkowych w połączeniu z dodatkowymi obowiązkami i nadzorem.

Projektowane zmiany dotyczą głównie ograniczenia cen produktów kredytowych oraz wprowadzenia dodatkowego nadzoru nad rynkiem pożyczkowym  – mówi Katarzyna Jóźwik. – Regulacje, które są na horyzoncie, dotyczą nie tylko Polski, ale i krajów europejskich, ponieważ są inicjowane także na poziomie unijnym. Mają na celu ochronę interesów klientów i pod tym względem są bardzo pożądane. Natomiast, mając na uwadze to, jak bardzo zróżnicowana jest ta branża i jak bardzo oddaliła się od tradycyjnych modeli, które funkcjonowały jeszcze kilka lat temu, warto szukać balansu, żeby efektem tych nowych przepisów nie było przeregulowanie rynku, ponieważ wtedy ucierpi klient.

Nowe regulacje nakładane na branżę pożyczkową uderzają też w jej klientów, utrudniając im dostęp do finansowania. Dla firm oznaczają wzrost kosztów operacyjnych i obniżkę dochodowości, ale z drugiej strony wymuszą też tworzenie nowych modeli biznesowych. Eksperci oceniają, że nie zatrzymają jednak rozwoju branży, która będzie rosnąć tak długo, jak utrzyma się popyt na jej produkty.

Zmieniają się za to oczekiwania klientów – głównie za sprawą innowacyjnych form płatności i rozwoju e-zakupów. Młodsze pokolenia nie potrzebują fizycznej gotówki i funkcjonują głównie online. Nadrzędne są dla nich komfort i wygoda, stąd m.in. rozkwit form płatności takich jak BNPL buy now, pay later.

– Można powiedzieć, że tradycyjne pożyczanie robi się passé, bo potrzeby pożyczkowe klientów zmieniają się wraz z ich zwyczajami zakupowymi. Weźmy przykład remontu ogrodu. Jeszcze kilka lat temu klient brał kredyt na określoną przez siebie kwotę pieniędzy, z którą szedł do sklepu i robił zakupy. W tej chwili taki klient robi zakupy online. Nie bierze jednego kredytu na ogólną potrzebę, jaką jest remont w ogrodzie, ale wykorzystuje środki finansowe na poszczególne rzeczy, które są mu w tym celu potrzebne, i dokonuje płatności właśnie online. W efekcie nie bierze za dużo, ale tyle, ile mu trzeba, i to w sposób bardzo wygodny – mówi dyrektor generalna Smartney.

 Klienci pożyczają coraz więcej w e-commerce. Finansowanie zakupów online jest nie tylko wygodne, ale również coraz bardziej popularne. Faktem jest jednak, że nie wszystko da się w ten sposób sfinansować. Są takie grupy klientów i takie sytuacje, w których potrzebne są standardowe sposoby finansowania, czyli np. pożyczka gotówkowa. Dlatego te produkty są względem siebie komplementarne i będą współistnieć na rynku. Produkty e-commerce nie zastąpią moim zdaniem tradycyjnych form finansowania – dodaje Tomasz Kacprzak, Chief Commercial Officer Smartney. 

Ekspert podkreśla też fakt, że w ciągu ostatnich 10 lat sektor pożyczkowy przeszedł ogromną transformację. Jeszcze dekadę temu firmy z tej branży obsługiwały głównie klientów segmentu subprime, reklamowały się na słupach albo rozrzucając ulotki, a umowy podpisywano w samochodach. Rynek nie był nawet raportowany, a jego wielkość mogła być jedynie szacowana. Tym samym narosło wobec niego wiele mitów.

Jednak wraz z rozwojem polskiego rynku pożyczkowego i rosnącą liczbą graczy na nim branża dojrzała i wprowadziła samoregulacje, na które dodatkowo nałożyły się regulacje krajowe i europejskie. Dziś na polskim rynku jest zarejestrowanych 526 firm pożyczkowych o różnych modelach biznesowych, ofercie i obsługiwanych segmentach, jak również aktywności. Wśród nich jest też m.in. PZU Cash, Mercedes-Benz Financial Services czy Allegro Pay, które oferują różne produkty, w tym zbliżone do bankowych, a część nawet wyspecjalizowała się już w obsłudze określonych segmentów klientów, np. małych przedsiębiorców.

Kształt rynku pożyczkowego zaczęły również zmieniać fintechy i inne podmioty oferujące darmowe albo bardzo tanie produkty powiązane z procesem zakupowym, np. sales finance czy BNPL zastępujące drogą kartę kredytową. Kolejną ogromną zmianą było coraz szersze wykorzystanie technologii takich jak AI, bazy danych, open banking czy algorytmów machine learningu, na których dziś opierają się modele oceny ryzyka.

– Dziś jesteśmy już w stanie korzystać z produktów finansowych online w zasadzie bez żadnych dokumentów, ponieważ branża nauczyła się korzystać z dostępnych, zdigitalizowanych danych – mówi Katarzyna Jóźwik. – Rynek pożyczkowy to nie tylko tradycyjna pożyczka online czy u doradcy w punkcie brokerskim. To są rozwiązania bardzo nowoczesne. Wykorzystują open banking, współpracują z innymi fintechami, bazują na stale rosnącym ekosystemie. Pojawiło się wiele nowych dużych brandów, mamy np. Allegro Pay, PayPo, Pay Smartney. To wszystko są rozwiązania, które podążyły za zmieniającymi się potrzebami klientów.

Coraz więcej firm płaci okup cyberprzestępcom i to coraz wyższe kwoty. W konsekwencji mogą...

Rośnie liczba ataków ransomware, czyli blokad, których celem jest wymuszenie okupu. Wraz z nią rośnie także wysokość kwot płaconych hakerom za odblokowanie danych i zasobów. Choć eksperci ds. bezpieczeństwa odradzają wpłacanie pieniędzy cyberprzestępcom, to na taki ruch decyduje się już niemal co druga zaatakowana organizacja. W ciągu ostatniego roku podwoił się udział okupów, których wartość przekroczyła milion dolarów. Już co dziewiąta wpłata opiewa na takie kwoty.

Nie powinniśmy płacić hakerom okupów, ale zaznaczam, że to moja prywatna opinia. Rozumiem, że jest to bardzo trudne, bo wszystkie procesy są zatrzymane, cała firma stoi, ale mimo to uważam, że płacenie terrorystom to nie najlepszy pomysł. Te pieniądze będą wykorzystane do finansowania działalności przestępczej – mówi agencji Newseria Innowacje Javier Carriazo z Milagro Digital Risk Intelligence.

Analitycy Sophos informują w raporcie „State of Ransomware 2022”, że w ubiegłym roku 66 proc. badanych firm na świecie zostało zaatakowanych przy użyciu oprogramowania ransomware. W 2020 roku odsetek ten wynosił 37 proc. Z tej grupy zaatakowanych firm i instytucji 46 proc. zapłaciło przestępcom okup. Co więcej, jedna czwarta organizacji, którym udało się przywrócić dane, nadal gotowa była zapłacić okup.

Dzieje się to często. Dużo częściej niż w przeszłości. Wiele firm tak robi, bo to najprostszy sposób wyjścia z kłopotów. Problem w tym, że płacąc, mówimy hakerom, że jesteśmy gotowi przekazywać im pieniądze. Możemy się więc spodziewać drugiego i trzeciego ataku. Mimo to przedsiębiorstwa, szczególnie te małe, coraz częściej decydują się zapłacić okup – mówi Javier Carriazo.

Również badane przez VECTO polskie firmy w większości wskazały, że byłyby skłonne zapłacić okup za odzyskanie zaszyfrowanych lub skradzionych danych (60 proc.). Często bowiem straty wynikające z opóźnienia procesów czy odbudowy infrastruktury i baz danych często przewyższają wartość oczekiwanego przez cyberprzestępców okupu. Analitycy Sophos obliczyli, że średni koszt przywrócenia zasobów firmy do stanu sprzed ataku to 1,4 mln dol., a czas potrzebny na ten proces to średnio jeden miesiąc. Na skutek takiego przestoju firmy często musiały wstrzymać działalność, tracąc przy tym przychody, a czasami także były zmuszone ją zamknąć.

Przestępcy żądają coraz wyższych kwot okupu. Z tegorocznego raportu BrightCloud Threat Report wynika, że jeszcze w 2018 roku było to 6,7 tys. dol., rok później już 84,1 tys. W 2020 roku firmy płaciły cyberprzestępcom średnio 154,1 tys., a w ubiegłym roku kwota ta wzrosła ponaddwukrotnie i przekroczyła 322 tys. dol. Statystyki przytaczane przez Sophos są jeszcze bardziej alarmujące. Wynika z nich, że średni okup płacony przez organizacje wyniósł w ubiegłym roku prawie 812,4 tys. dol. Co dziewiąta firma wskazała, że zapłaciła ponad 1 mln dol. (w 2020 roku co 25. firma). Z kolei odsetek organizacji, które zapłaciły mniej niż 10 tys. dol., spadł z 34 proc. w 2020 roku do 21 proc. w 2021 roku.

Przykłady można mnożyć. W 2021 roku w ataku na Colonial Pipeline okup wyniósł 4,4 mln dol. Z kolei amerykańskie zakłady przetwórstwa mięsnego JBS z USA zapłaciły przestępcom 11 mln dol. Na celowniku cyberprzestępców są też Polacy, m.in. administracja. W marcu ubiegłego roku ofiarą ataku ransomware padło starostwo powiatowe w Oświęcimiu. Usuwanie skutków pochłonęło ponad 600 tys. zł, a i tak nie udało się przywrócić wszystkich skradzionych danych.

Główny typ ataku hakerskiego nazywamy inżynierią społeczną. Polega to na próbach oszukania ludzi w taki sposób, by zrobili coś, czego w zwykłych okolicznościach nie chcieliby zrobić – dodaje ekspert Milagro Digital Risk Intelligence. – Wielu sytuacji można by uniknąć, gdybyśmy byli bardziej świadomi. Musimy znać siebie, wiedzieć, kim jesteśmy, jak zwykle reagujemy. To najlepszy sposób obrony przed atakami wykorzystującymi inżynierię społeczną. Korzystanie z rozwiązań informatycznych też oczywiście ma sens.

Problem jednak w tym, że wielokrotnie narzędzia walki z cyberprzestępcami polegają wyłącznie na zabezpieczeniu infrastruktury, baz danych czy serwerów, z pominięciem faktu, że czynnik ludzki może być krytyczny. Mowa tu nie tylko o atakach polegających na wymuszaniu okupu.

– Ponad 90 proc. wszystkich ataków hakerskich zaczyna się od czynnika ludzkiego, na przykład w postaci maila phishingowego. Jeśli więc skupimy się tylko na ochronie komputerów, to nie dostrzegamy pełnego obrazu – mówi Javier Carriazo.