Rewolucja cyfrowa przeniesie komunikację z klientami do rozszerzonej rzeczywistości. Dla przedstawicieli pokolenia Z to...

92 proc. przedstawicieli pokolenia Z chce w zakupach korzystać z narzędzi rozszerzonej rzeczywistości. O atrakcyjności takiej formy prezentowania oferty świadczy możliwość większego zaangażowania odbiorców, dotarcia do konkretnego grupy klientów i łatwa mierzalność efektów kampanii. Dostawcy usług elektronicznych skupiają się więc na stworzeniu narzędzi ułatwiających użytkownikom obcowanie z wirtualną, rozszerzoną czy mieszaną rzeczywistością. Ich zdaniem stanowią one przyszłość marketingu.

Nowe technologie w komunikacji marketingowej odgrywają bardzo ważną rolę. Żyjemy w fascynujących czasach, które porównuję z erą Gutenberga, kiedy został wynaleziony druk. Mało ludzi wie, że rewolucja cyfrowa, która teraz zachodzi, będzie miała na nas w przyszłości podobny wpływ. Jedną z technologii, którą mamy przyjemność się zajmować, jest właśnie rozszerzona rzeczywistość, która potrafi wchodzić w interakcję z codziennymi przedmiotami, pomaga nam edukować i wspierać sprzedaż – mówi agencji Newseria Innowacje Sebastian Żywiecki, prezes zarządu w VMS Media, firmy specjalizującej się w kampaniach z wykorzystaniem VR i AR oraz autorskiej aplikacji Viuu,

Jak wynika z ankiety przeprowadzonej na Snapchacie przez Global Crowd DNA, 92 proc. konsumentów z pokolenia Z chce korzystać z narzędzi rzeczywistości rozszerzonej w zakupach dokonywanych drogą elektroniczną. 60 proc. ankietowanych jest zdania, że narzędzia AR dają bardziej osobiste odczucia w procesie wyboru kupowanego towaru. Ponad połowa przedstawicieli pokolenia Z deklaruje, że reklama w technologii AR zwróciłaby ich uwagę.

Zastosowanie wirtualnej, rozszerzonej i mieszanej rzeczywistości w komunikacji z klientem pozwala go zaangażować w większym stopniu niż tradycyjny przekaz, bo angażuje wiele jego zmysłów. Wciąga odbiorcę w świat wirtualny i powoduje, że chce tam pozostać.

– Kluczową rolą jest chęć interakcji zwykłego człowieka z daną treścią. Kiedyś wszyscy byli zafascynowani zdjęciami, później przyszedł moment na materiały wideo, a dziś największą skuteczność potrafią wygenerować elementy, w których my jako człowiek możemy wejść w interakcję, dlatego że z chęcią chcemy się dzielić tymi informacjami ze swoimi znajomymi, przyjaciółmi, kolegami, rodziną. To zwykły element wiralowości, który możemy wygenerować – mówi Sebastian Żywiecki.

Przykładem ciekawej inicjatywy, w której do promocji marki wykorzystywana jest rozszerzona rzeczywistość, może być pomysł australijskiej firmy Accolade Wines specjalizującej się w produkcji win. „Banrock Station” to doświadczenie rozszerzonej rzeczywistości, które umożliwia użytkownikom z całego świata zapoznanie się projektami środowiskowymi firmy. Doświadczenie AR pozwala konsumentom obejrzeć filmy z lokalnych szlaków i zobaczyć efekty ekologicznych wysiłków przedsiębiorstwa. Następnie użytkownicy mogą posadzić drzewo AR w swoim salonie i pielęgnować je, jednocześnie poznając korzyści środowiskowe i węglowe wynikające z sadzenia prawdziwych drzew. Doświadczenie zawiera również linki do informacji na temat asortymentu win Banrock Station i firmowej winnicy.

Wirtualna rzeczywistość i rozszerzona rzeczywistość pozwalają na to, że możemy pojmować nasz najbliższy czas w zupełnie inny sposób. Dzięki temu możemy przenieść się przykładowo w ulubione miejsce i zobaczyć otoczenie, do którego normalnie nie moglibyśmy się udać, lub obcować ze sztuką – podkreśla prezes zarządu VMS Media.

Zdaniem ekspertów poza immersyjnością, czyli możliwością pełnego „zanurzenia” się w wirtualnym świecie, dużą zaletą nowych technologii jest pokazanie marki w innym świetle jako innowacyjnego podmiotu otwartego na nowinki. To wpływa na odbiór i zwiększenie zasięgu, a to z kolei może przekładać się na większe zaufanie do marki. Inna korzyść z kampanii w wirtualnej i rozszerzonej rzeczywistości czy z wykorzystaniem innych technologii to fakt, że dużo łatwiej można oceniać jej efektywność. Bardziej precyzyjnie można także dotrzeć z przekazem do konkretnych grup odbiorców, co w przypadku mediów tradycyjnych nie jest takie proste.

Widzimy dokładnie, jak często i kto wchodzi w interakcję z danym materiałem czy produktem, jak często odbiorcy po niego sięgają, czy chcą go wziąć z półki. Mamy pełną dowolność, jeżeli chodzi o badanie ROI, czyli zwrotu z inwestycji. Jeżeli chodzi o zwiększenie zasięgów, wszystko zależy od tego, z jaką grupą konsumentów chcemy się komunikować. Nowe technologie są naturalnym kierunkiem w przekazie do zetów czy millenialsów – wskazuje Sebastian Żywiecki.

Meta zapowiada, że do 2024 roku chce doprowadzić do debiutu autorskich gogli AR, które umożliwiałyby użytkownikowi sprawne poruszanie się po świecie metawersu. Z raportu Sky Quest Technology wynika, że do 2027 roku rynek mieszanej rzeczywistości wypracuje przychody sięgające 93 mld dol., a średnioroczne tempo wzrostu przekroczy 40 proc.

– Zastosowanie nowych technologii to jak najbardziej przyszłość marketingu. Świat, który nas otacza, diametralnie się zmienia. Kiedyś niewyobrażalne było dla nas odbywanie spotkań poprzez Zooma, dziś jest dla nas codziennością. Arthur C. Clarke kiedyś powiedział, że każda wystarczająco zaawansowana technologia dla zwykłego człowieka jest magią i taką magią są te nowe technologie, które nie do końca jeszcze umiemy rozumieć. Natomiast my od nich nie uciekniemy, czy to będzie trwało pół roku, rok czy dwa lata, nie jestem w stanie tego powiedzieć, natomiast ta zmiana właśnie się dzieje i zależy wyłącznie od tego, jak będziemy te technologie przyjmowali i chcieli z nich korzystać – podkreśla prezes VMS Media.

Wodór będzie paliwem przyszłości. W tym roku zaczną działać w Polsce pierwsze stacje do...

Rynek pojazdów napędzanych ogniwami wodorowymi w ciągu kilku lat zwiększy przychody niemal czterdziestokrotnie – przewidują analitycy Market Research Future. Na razie czynnikiem ograniczającym rozwój napędów opartych na tym paliwie jest stosunkowo wysoki koszt wytworzenia go w zeroemisyjnym procesie i brak odpowiedniej infrastruktury do tankowania. Pierwszą taką stację w tym roku w Krakowie otworzy PKN Orlen. Najbliższe lata przyniosą jednak coraz większe zainteresowanie inwestycjami w ten obszar rynku paliw, co przyczyni się do obniżenia kosztów produkcji zielonego wodoru. Wysokie ceny tradycyjnych paliw sprawiają, że ten proces może przyspieszać.

– Wodór w przyszłości może być nośnikiem, który zastąpi w znacznym stopniu ropę naftową, ale również inne nośniki energii, takie jak węgiel czy gaz. Szacuje się, że do roku 2050 wodór może stanowić nawet 10 proc. energii, która będzie niezbędna nam jako ludzkości do zastosowań przemysłowych i transportowych. Natomiast jest to oczywiście proces długoterminowy – mówi agencji Newseria Innowacje Jacek Cichosz, prezes zarządu Air Products na Polskę.

Według analityków Market Research Future światowy rynek pojazdów napędzanych wodorowymi ogniwami paliwowymi osiągnął w 2020 roku przychody sięgające niemal 1,2 mld dol. Do 2028 roku jego wycena wzrośnie jednak do poziomu niemal 47 mld dol. Jak wskazują autorzy raportu, na stosunkowo niskie jak na razie zainteresowanie ogniwami wodorowymi wpływa wysoki koszt stworzenia infrastruktury stacji paliw w porównaniu z innymi paliwami alternatywnymi. Na cenę wpływa też wysoki koszt wytworzenia wodoru.

– Jeżeli mówimy o zastosowaniu zielonego wodoru, który jest przede wszystkim produkowany w oparciu o odnawialne źródła energii i w procesie elektrolizy wody, to mówimy o konieczności dużych inwestycji w nową infrastrukturę. To przede wszystkim zakup elektrolizerów, montaż instalacji źródeł energii odnawialnej. Te koszty inwestycji będą na pewno rzutowały na tym etapie na znacznie wyższy koszt wodoru jako alternatywnego paliwa – przyznaje Jacek Cichosz.

Jednak w opinii eksperta wraz ze zwiększeniem skali produkcji i inwestycji będziemy obserwować spadek kosztu jednostkowego wytworzenia energii. Do 2030 roku produkowanie zielonego wodoru powinno być porównywalne kosztowo z obecnie produkowanym wodorem przemysłowym.

Co ważne, koszt wodoru musi być odnoszony także do kosztów alternatywy, czyli paliw konwencjonalnych, takich jak gaz czy ropa. W obecnych uwarunkowaniach i przy obecnie wysokich kosztach wydaje się, że czas na uzyskanie niższego kosztu wodoru w stosunku do klasycznych paliw może być znacznie krótszy – mówi przedstawiciel Air Products, firmy, która jest największym na świecie producentem i dostawcą wodoru na świecie.

W uchwalonej pod koniec ubiegłego roku Polskiej Strategii Wodorowej do roku 2030 rząd deklaruje, że do 2030 roku w naszym kraju moc instalacji do produkcji niskoemisyjnego wodoru osiągnie potencjał 2 GW. Ma też powstać pięć dolin wodorowych, a po polskich drogach będzie się poruszało od 800 do 1 tys. autobusów napędzanych wodorem. Z kolei już w 2025 roku ma działać 35 stacji tankowania tego paliwa. Wraz z rozwojem napędów wodorowych musi bowiem podążać inwestycja w infrastrukturę do tankowania takich pojazdów.

– Potrzebna jest jasna strategia na poziomie ogólnokrajowym, która będzie definiowała ścieżkę rozwoju dla wodoru. To jest o tyle istotne, że ze strategii wynikają też rozwiązania legislacyjne niezbędne do tego, żeby taka infrastruktura mogła powstać. Na początkowych etapach wdrożeń nowych technologii to są również środki wspierające i dotacje, które umożliwią uruchomienie całego procesu inwestycyjnego – wymienia prezes zarządu Air Products. – Fakt braku stacji tankowania wodoru jest klasycznym dylematem: jajko czy kura. Ktoś powie: nie ma stacji do tankowania, bo nie ma pojazdów, w konsekwencji nie ma pojazdów, ponieważ nie ma gdzie ich zatankować.

Jak wynika z marcowego Licznika Elektromobilności, prowadzonego przez PSPA i PZPM, park wodorowych samochodów osobowych liczy 119 egzemplarzy. W I kwartale br. zarejestrowano 40 sztuk takich aut, co oznacza wzrost o 900 proc. r/r. Zgodnie z zapowiedziami PKN Orlen w najbliższych tygodniach w Krakowie zostanie uruchomiona pierwsza stacja tankowania wodoru, w przyszłym roku powstaną kolejne – w Poznaniu i Katowicach. Strategia wodorowa koncernu zakłada, że do końca tej dekady kierowcy w Polsce będą mogli korzystać z sieci 57 stacji. Równolegle PKN Orlen planuje uruchomienie 10 hubów wodorowych, m.in. we Włocławku czy Płocku, w których będzie produkowany niskoemisyjny wodór (pierwszy hub działa od zeszłego roku w Trzebini, na razie jest tam produkowany szary wodór z przeznaczeniem dla transportu). Do 2030 roku paliwowy koncern planuje zainwestować 7,4 mld zł w technologie związane z wytwarzaniem i dystrybucją tego paliwa.

– W Europie Zachodniej funkcjonuje już ponad 200 stacji tankowania wodoru. Można powiedzieć, że kraje zachodnie, takie jak Niemcy, Francja, Hiszpania czy Wielka Brytania, są parę kroków przed nami. Ale jestem przekonany, że w ciągu najbliższych dwóch–trzech lat powinniśmy mieć już w Polsce infrastrukturę i sieć stacji do tankowania wodoru, jak również pierwsze pojazdy wykorzystywane w zastosowaniach transportowych. Liderami będą przede wszystkim przedsiębiorstwa komunikacji miejskiej, które już ogłaszają przetargi i rozpoczynają procesy zakupów floty autobusów napędzanych wodorem – przewiduje ekspert.

W marcu przetarg na zakup 22 autobusów wodorowych ogłosiło Miejskie Przedsiębiorstwo Komunikacji w Poznaniu. Taki zakup planuje także m.in. Zarząd Transportu Miejskiego w Lublinie.

Rosnąca popularność fotowoltaiki dostrzeżona przez ubezpieczycieli. Polisa przydomowej instalacji PV pokryje szkody z powodu...

Sukcesywny wzrost cen surowców, a więc i energii elektrycznej, oraz świadomości ekologicznej Polaków przyczynił się do boomu w fotowoltaice i rosnącej liczby mikroinstalacji zainstalowanych w polskich domach. Szacuje się, że w tej chwili już co siódmy dom w Polsce ma własną instalację PV. Ten wzrost zainteresowania dostrzegli też ubezpieczyciele, którzy poszerzają swoją ofertę o ubezpieczenie właśnie takich instalacji. Polisa chroni przed finansowymi skutkami najczęstszych zagrożeń typu pożar, przepięcie czy gradobicie. Ważne, aby przy jej wyborze zwrócić uwagę na zakres ochrony oraz sumę ubezpieczenia.

Fotowoltaika jest w ostatnich latach najszybciej rosnącym segmentem polskiego rynku OZE. Według danych PTPiREE na koniec 2021 roku łączna liczba mikroinstalacji prosumenckich przyłączonych do sieci dystrybucyjnej sięgnęła 854 tys., a ich moc przekroczyła 6 GW. Szacuje się, że obecnie ok. 14 proc. domów jednorodzinnych w Polsce ma własną instalację fotowoltaiczną, a w tym roku liczba gospodarstw domowych korzystających z energii wyprodukowanej we własnych mikroinstalacjach PV przekroczy 1 mln. Do takiej inwestycji zarówno klientów indywidualnych, jak i firmy skłania m.in. to, że pozwala ona uniezależnić się od zewnętrznych dostawców energii, a więc i wahań cenowych, ale także znacząco obniżyć rachunki za prąd.

Ten skokowy wzrost zainteresowania fotowoltaiką dostrzegli też ubezpieczyciele, którzy poszerzają swoją ofertę ubezpieczeniową właśnie o ubezpieczenie instalacji PV. Taka inwestycja to koszt rzędu kilkudziesięciu tysięcy złotych. Już samo to powinno skłonić właściciela do objęcia jej polisą.

Rynek oferuje w tej chwili dwa sposoby ubezpieczenia instalacji fotowoltaicznej – podkreśla w rozmowie z agencją Newseria Biznes Andrzej Paduszyński, dyrektor Departamentu Ubezpieczeń Indywidualnych w TU Compensa.

Jak wskazuje, ponad 70 proc. prosumenckich instalacji PV jest instalowanych na dachach domów, dlatego większość zakładów ubezpieczeń oferuje taką polisę w ramach kompleksowego ubezpieczenia domu.

Większość instalacji fotowoltaicznych znajduje się na budynkach mieszkalnych lub gospodarczych. W takim przypadku, jeżeli ubezpieczenie domu czy mieszkania obejmuje instalację PV, wtedy jest ona po prostu częścią polisy. Jest to bardzo powszechne rozwiązanie. Można powiedzieć, że praktycznie każda instalacja fotowoltaiczna na dachu domu jest ubezpieczona, oczywiście pod warunkiem że ubezpieczony jest dom – mówi ekspert Compensy.

W takim przypadku trzeba jednak pamiętać o tym, żeby zwiększyć sumę ubezpieczeniową polisy o wartość instalacji. Jeżeli panele są instalowane na stelażach w gruncie, instalacja jest traktowana jako budowla i wtedy wymagane jest odrębne ubezpieczenie.

Instalacje fotowoltaiczne są narażone m.in. na działanie gradu, huraganu czy upadek różnych przedmiotów, takich jak gałęzie drzew i masztów, w zależności od tego, jak silnie wieje wiatr. Nie można też zapominać o pożarach i głównym ryzyku, czyli o przepięciu – wymienia Andrzej Paduszyński.

W razie uszkodzenia lub awarii ubezpieczyciel pokryje koszty naprawy lub wymiany paneli. Odpowiednio dobrana polisa zapewnia ochronę nie tylko w przypadku zdarzeń losowych, ale również kradzieży elementów instalacji.

Ubezpieczenie przydomowej fotowoltaiki obejmuje całość takiej instalacji, czyli panele PV, instalację łączącą panele z falownikiem, sam falownik oraz podłączenie do sieci energetycznej. Przy jego wyborze warto zwrócić uwagę na zakres ochrony oraz sumę ubezpieczenia. 

– Wybierając ubezpieczenie instalacji fotowoltaicznej, trzeba uwzględnić jego zakres, czyli właśnie te najczęstsze ryzyka, które muszą być pokryte polisą. To przede wszystkim grad, skutki oddziaływania wiatru, przepięcie oraz pożar. Jeżeli polisa zawiera właśnie te ryzyka, możemy być spokojni, że większość szkód związanych z instalacją fotowoltaiczną zostanie pokrytych. Kolejnym ważnym elementem jest też suma ubezpieczenia instalacji fotowoltaicznej. Trzeba  pamiętać, aby ta suma odpowiadała wartości nowej instalacji PV. Jest to ważne w przypadku odszkodowania, żeby pokryć zarówno koszty zakupu, jak i zainstalowania nowej instalacji – wskazuje dyrektor Departamentu Ubezpieczeń Indywidualnych w TU Compensa.

W pakiecie ubezpieczeniowym Compensa Rodzina można wybrać ochronę na wypadek konkretnych zdarzeń losowych albo opcję all risk obejmującą wszystkie ryzyka. Między innymi od wyboru zakresu ochrony zależy cena polisy. Jak podkreśla ekspert, już w ramach podstawowego zakresu ochrony właściciel domu może ubezpieczyć zarówno panele i kolektory słoneczne, jak i pompy ciepła, które często towarzyszą inwestycji w fotowoltaikę – tu także możliwe jest ubezpieczenie instalacji zamontowanych wewnątrz oraz na zewnątrz budynku.

Technologie i online nie wyparły z rynku stacjonarnych targów. Branża wraca do formy sprzed...

Branża targowa i wystawiennicza to jeden z sektorów, który najmocniej ucierpiał przez pandemię i lockdowny, ale też sektor, który szybko dostosował się do nowych warunków i w popandemicznej rzeczywistości wrócił do prężnego rozwoju. – Pandemia pokazała nam, że spotkań twarzą w twarz nie da się niczym zastąpić – podkreślają przedstawiciele branży na pierwszej od trzech lat Europejskiej Konferencji Stowarzyszenia Przemysłu Targowego, która odbywa się w Poznaniu. Zaprezentowany na niej raport Grupy MTP i infuture.institute pokazuje, że spotkania w realu są istotne także dla pokoleń Z i Alfa, mimo że duża część ich życia toczy się w onlinie. Technologie mają być przede wszystkim narzędziem, które powinno wspierać organizatorów targów, by zapewnić zwiedzającym lepszą jakość doświadczeń, a wystawcom stwarzać warunki sprzyjające nawiązywaniu kontaktów biznesowych. 

– Miło patrzeć, że po dwóch latach pandemii branża wraca do życia. Pawilony wystawiennicze w całej Europie zaczynają się zapełniać. Wystawcy wracają z dużym entuzjazmem, podobnie jak kupujący. Luka się wypełnia, rośnie potrzeba powrotu i uczestnictwa w targach, żeby nawiązywać relacje biznesowe – mówi agencji Newseria Biznes Kai Hattendorf, dyrektor zarządzający UFI – Światowego Stowarzyszenia Przemysłu Targowego. 

W Polsce branża MICE (meetings, incentives, conferences, exhibitions) odpowiada za ok. 1,5 proc. PKB, a globalna wartość tego rynku w 2019 roku, a więc jeszcze przed pandemią, wynosiła ok. 1,2 mld dol. Rok później, w wyniku lockdownów i pandemicznych obostrzeń, polskie firmy z branży spotkań i wydarzeń odnotowały spadek przychodów sięgający 73 proc. Teraz, po ponad dwóch latach branża MICE – nie tylko w Polsce, ale i całej Europie – wraca powoli do funkcjonowania w przedpandemicznej, stacjonarnej formule.

Pandemia nauczyła nas kilku rzeczy. Przekonaliśmy się, jak dużo można zrobić w świecie cyfrowym, jak można ulepszyć targi, kiedy towarzyszą im usługi cyfrowe. Pandemia pokazała nam również bardzo dobitnie, że spotkań twarzą w twarz nie da się w biznesie niczym zastąpić – mówi Kai Hattendorf.

– Rynek spotkań i rynek wystawienniczy w Polsce jest jedną z branż najbardziej dotkniętych przez pandemię COVID-19. Jednak jest też niewątpliwie najlepszym barometrem polskiej gospodarki i będzie odgrywać fundamentalną rolę w jej odbudowie po tych minionych, bardzo trudnych dwóch latach – mówi Karolina Niementowska, dyrektor ds. komunikacji korporacyjnej w Grupie MTP.

Z raportu opracowanego przez Grupę MTP i infuture.institute wynika, że branża MICE ma dobry grunt do odbudowy. Po ponad dwóch latach pracy zdalnej, kwarantanny i lockdownów ludzie mają większą potrzebę spotkań bezpośrednich. W badaniu przeprowadzonym na potrzeby raportu ponad 70 proc. respondentów wskazało, że udział w tradycyjnych targach zaspokaja ich potrzebę kontaktów społecznych. Badani znacznie chętniej deklarowali też swój udział w targach stacjonarnych.

– Wracamy do stanu sprzed pandemii, znowu zaczynamy spotykać się osobiście. Ale wyraźnie widzimy też, że nie ma już powrotu do punktu wyjściowego. Branża stanęła w obliczu istotnej deformacji, będzie musiała się zmienić – mówi Natalia Hatalska, prezeska i założycielka infuture.institute. – Do tej pory funkcją nadrzędną targów i branży wystawienniczej był głównie biznes, nawiązywanie kontaktów, poznawanie kontrahentów, sprzedaż, etc. Teraz to się zmienia. Branża wystawiennicza staje się realnie branżą spotkań, czyli umożliwia kontakty ludziom, którzy są stęsknieni kontaktów, interakcji społecznych.

Raport „W kierunku rezyliencji. Przyszłość branży targowej” pokazuje, że nie tylko pandemia Covid-19 miała wpływ na branżę MICE, ale oddziałują na nią też m.in. otoczenie gospodarcze, transformacja cyfrowa i klimatyczna oraz zmiany demograficzne, szczególnie wejście na rynek przedstawicieli pokolenia Z i Alfa, którzy mają wobec branży spotkań zupełnie inne oczekiwania.

Oczekują wielu zmysłowych doświadczeń, rozrywki, ale też edukacji, tworzenia społeczności – mówi Natalia Hatalska. – Obydwa te pokolenia urodziły się już w czasach internetu, nie znają świata bez niego i istnieje dość głębokie przekonanie, że chcą się spotykać wyłącznie online. Natomiast z naszych badań wynika, że 90 proc. osób z pokolenia Z i Alfa zapytanych o to, czy wolą kontakty cyfrowe, czy fizyczne, wybiera te drugie. Widać więc, że te kontakty w świecie offline są dla nich bardzo istotne. Oczywiście na targach mamy wiele technologii wspierających, ale z naszych obserwacji wynika, że one są traktowane trochę pobieżnie. Ludzie do tych technologii podchodzą, testują je, a potem odchodzą, bo jednak wybierają kontakt z drugim człowiekiem.

To jednak technologia będzie mieć znaczący wpływ na rozwój branży w kolejnych latach.

Mowa tu m.in. o koncepcji metawersum, gdzie świat cyfrowy jest lustrzanym odbiciem świata fizycznego. To jeden z istotnych trendów, choć raczej odległych, bo na dziś nie mamy jeszcze na tyle dojrzałych technologii. Mówimy raczej o perspektywie ok. 2040 roku – mówi Natalia Hatalska.

Patrzenie na takie wydarzenia przez pryzmat tylko jednego, dwóch czy pięciu dni, kiedy ludzie odwiedzają targi, jest przestarzałe. W przyszłości będziemy zajmowali się klientami przez cały rok, nie tylko przed i po targach. Będziemy łączyć kupujących i sprzedających, zbliżać do siebie ludzi i ich pomysły przez cały rok. Będzie więcej stacjonarnych wydarzeń, może niektóre z nich będą mniejsze, ale za to będą rozproszone po całym świecie i wspierane przez mnóstwo rozwiązań cyfrowych. W tym aspekcie technologie cyfrowe będą mogły naprawdę przyczynić się do rozwoju branży – dodaje dyrektor zarządzający UFI.

– Branża MICE ewoluuje nieustająco, to jest wpisane w nasze DNA. Musimy ciągle dostosowywać się do zmieniających się trendów, do zmieniających się oczekiwań i potrzeb rynku – podkreśla Karolina Niementowska.

W raporcie „W kierunku rezyliencji. Przyszłość branży targowej” eksperci prognozują, że m.in. postępująca digitalizacja i zmiany demograficzne będą sprzyjać zmniejszaniu powierzchni targowej wynajmowanej przez wystawców. W efekcie zmieni się model biznesowy targów, a branża będzie zmuszona do dywersyfikacji działalności. Zarabianie na wynajmowaniu metrów kwadratowych rzeczywistej przestrzeni w halach wystawienniczych czy oferowanie usług związanych z organizacją tradycyjnych targów może bowiem okazać się niewystarczające.

Kluczowa dla branży MICE jest w tej chwili dywersyfikacja, nie skupianie się tylko i wyłącznie na jednym profilu działalności. Dlatego też jesteśmy w trakcie wielu prac inwestycyjnych, modernizujemy naszą infrastrukturę, żeby była jak najlepiej dostosowana do zróżnicowanego charakteru wydarzeń i w równym stopniu atrakcyjna dla gości biznesowych, jak i tych, którzy szukają tutaj przestrzeni do wypoczynku, dobrej kuchni albo wydarzeń kulturalnych – mówi dyrektor ds. komunikacji korporacyjnej w Grupie MTP.

W efekcie obecna funkcja targów, skupiona m.in. na nawiązywaniu relacji biznesowych, przestanie pełnić główną rolę. Targi staną się czymś więcej niż miejscem zawierania umów biznesowych i poszukiwania kontrahentów.

Międzynarodowe Targi Poznańskie, które przez ostatnich 100 lat były miejscem, gdzie odbywały się najważniejsze wydarzenia targowe, gospodarcze i biznesowe w kraju, też się zmieniają, adaptują się do potrzeb rynku. W tej chwili ewoluują w kierunku zagospodarowania wolnego czasu. Ponieważ są zlokalizowane w samym sercu Poznania, odgrywają coraz większą rolę w animowaniu wolnego czasu dla mieszkańców. I choć biznes wciąż pozostaje fundamentem naszej działalności, myślę, że ten kierunek będziemy kontynuować – mówi Karolina Niementowska.

Co istotne, branży MICE – podobnie jak i innych sektorów gospodarki – nie omijają również skutki zielonej transformacji.

– Musimy osiągnąć zerowe emisje netto, aby walczyć z kryzysem klimatycznym i mamy na to dobre rozwiązania, które można wdrożyć w całej branży – mówi Kai Hattendorf.

– Transformacja klimatyczna, zrównoważony rozwój i przechodzenie na gospodarkę obiegu zamkniętego – czyli np. to, z jakich materiałów będą powstawać pawilony wystawiennicze i co będzie się z nimi dalej działo – to dziś istotne czynniki. Ważne są też kwestie ekonomiczne i gospodarcze, jak np. przerwane łańcuchy dostaw, które były spowodowane najpierw pandemią, a teraz wojną. One prowadzą nas trochę w kierunku lokalności. Możemy sobie wyobrazić, że branża targowa i wystawiennicza będzie zmierzać nie tyle w kierunku międzynarodowych, bardzo dużych imprez, ale i bardziej lokalnych, kameralnych wydarzeń, festiwali butikowych – dodaje Natalia Hatalska.

Raport „W kierunku rezyliencji. Przyszłość branży targowej”, opracowany przez Grupę MTP i infuture.institute, został zaprezentowany podczas odbywającej się w dniach 4–6 maja Europejskiej Konferencji Światowego Stowarzyszenia Przemysłu Targowego (UFI). To najważniejsze międzynarodowe wydarzenie dla branży targowej w tej części świata. W tym roku po raz pierwszy odbyło się w Polsce, na terenie Międzynarodowych Targów Poznańskich i Poznań Congress Center.

– Po raz pierwszy od trzech lat cała Europa spotyka się ponownie. Do Poznania przyjechali ludzie z ponad 30 krajów, wszyscy liderzy branży wystawienniczej z całej Europy i nie tylko. Mamy gości z Ameryki Północnej i Azji. Wszyscy pojawili się tutaj, by ponownie nawiązać relacje i pchnąć branżę do przodu, omówić obecne trendy i nowy raport. Chcemy też przyjrzeć się temu, co nas czeka i możliwościom współpracy tak, aby branża szybciej wróciła na właściwe tory – mówi Kai Hattendorf.

Jest to o tyle szczególne wydarzenie, że spotykamy się wspólnie po raz pierwszy w Polsce, po raz pierwszy w Poznaniu i po ponad dwóch latach pandemicznej przerwy. Tak więc jest to doskonały moment, żeby poważnie zastanowić się nad przyszłością, która nas czeka, bo wszyscy musimy do tej przyszłości dostosować nasze przedsiębiorstwa, biznesplany i infrastrukturę – dodaje Karolina Niementowska.

Rynek e-commerce pod lupą UOKiK. Przedsiębiorcy naruszający przepisy muszą się liczyć z dotkliwymi karami

W związku z szybkim rozwojem internetowego handlu rynkowi coraz uważniej przygląda się Urząd Ochrony Konkurencji i Konsumentów. Dlatego – jak podkreśla ekspert Kancelarii Baker McKenzie Marcin Trepka – przedsiębiorcy, którzy chcą skorzystać na szybkim wzroście e-commerce, powinni się pochylić nad kwestiami związanymi z prawem konsumenckim. Nowe obowiązki nałoży na nich także unijna dyrektywa Omnibus, która powinna zacząć obowiązywać od 28 maja br. i która ma m.in. zapobiegać nieuczciwemu zawyżaniu cen przed wprowadzeniem promocji czy publikowaniu fałszywych opinii na temat produktów. Przedsiębiorcom internetowym zostało już bardzo niewiele czasu, aby dostosować swoje regulaminy do nowych przepisów i wdrożyć nowe procedury w zakresie obsługi klientów. 

– Często przedsiębiorcy przy obniżkach cen czy promocjach typu Black Friday albo Cyber Monday stosowali taktykę w postaci dużych, kilkudziesięcioprocentowych promocji. Okazywało się, że część z nich stopniowo podwyższała najpierw cenę. Gdybyśmy sprawdzili cenę sprzed miesiąca, okazałoby się, że promocja sięga raptem kilku procent. Teraz dyrektywa będzie wymagała, aby obok tej ceny obniżonej każdorazowo pokazywać najniższą cenę z ostatnich 30 dni – mówi agencji Newseria Biznes Marcin Trepka, radca prawny i partner w kancelarii Baker McKenzie, ekspert Departamentu Ochrony Konkurencji i Konsumentów.

Jak wskazuje, ważna zmiana będzie dotyczyć też publikowania opinii na temat nabywanych produktów i usług. Badania przeprowadzone dla UOKiK pokazały, że 93 proc. konsumentów sugeruje się opinią o produkcie przed dokonaniem zakupu, a 86 proc. zwraca uwagę na to, jaką opinię ma sprzedający. Jest to więc istotny czynnik przy podejmowaniu decyzji zakupowych.

– Teraz przedsiębiorca będzie mieć obowiązek zapewniania, aby opinie konsumentów o sprzedającym lub jego produkcie pochodziły od osób, które rzeczywiście ten produkt nabyły albo z niego korzystały. Jeżeli tego nie zrobi, nie będzie mógł się nimi posługiwać bądź będzie mu groziła odpowiedzialność za stosowanie nieuczciwych praktyk rynkowych – mówi Marcin Trepka.

Zgodnie z unijną dyrektywą platformy internetowe będą mieć też obowiązek przekazywania konsumentom jasnych informacji o tym, jakie obowiązki ma względem nich sprzedający i sama platforma m.in. w zakresie zwrotów czy reklamacji.

– Konsumenci niejednokrotnie nie mieli pojęcia, że nabywając towar za pośrednictwem platformy zakupowej, nabywają go od platformy, od przedsiębiorcy czy innego konsumenta. To oczywiście rodziło określone konsekwencje – konsument nie miał pojęcia, do kogo zgłosić reklamację, nie wiedział, czy ma prawo odstąpienia od umowy – mówi ekspert Departamentu Ochrony Konkurencji i Konsumentów w Baker McKenzie. – Kolejnym obowiązkiem będzie informowanie, dlaczego konsument korzystający z wyszukiwarki bądź platformy widzi towary bądź oferty w określonym porządku. Unijny prawodawca zauważył bowiem, że konsumenci najczęściej sugerują się tym i wybierają pierwsze pozycje, więc przedsiębiorcy niejednokrotnie faworyzowali własne produkty czy usługi przez platformę kosztem ofert innych sprzedawców. Mieliśmy już głośną sprawę Google’a i ponad 2 mld euro kary nałożone właśnie za samopreferowanie, a w Polsce trwa obecnie postępowanie przeciwko Allegro dokładnie w tej samej sprawie.

Co istotne, za naruszenia prawa konsumenckiego grożą przedsiębiorstwom internetowym dotkliwe kary finansowe, a do odpowiedzialności może zostać pociągnięta nie tylko firma, ale i kadra zarządzająca.

– To jest do 10 proc. ubiegłorocznego obrotu oraz kary dla menedżerów do 2 mln zł, a w przypadku przedsiębiorców działających na rynku finansowym nawet do 5 mln zł. Co ciekawe, takie kary już padają. Urząd Ochrony Konkurencji i Konsumentów co prawda na razie nakłada je za praktyki typu piramidy finansowe, ale już widzimy, że planuje też przynajmniej wszczynać postępowania w stosunku do menedżerów także za inne praktyki, w tym właśnie nieinformowania czy też wprowadzenia konsumentów w błąd – mówi Marcin Trepka.

Jak podkreśla, prezes UOKIK w ostatnim czasie bacznie przygląda się rynkowi e-commerce.

– Widzimy, że stopniowo wszczynane są postępowania w tym zakresie. W większości dotyczą one potencjalnych naruszeń zbiorowych interesów konsumentów albo stosowania niedozwolonych klauzul umownych – mówi radca prawny i partner w kancelarii Baker McKenzie.

Podczas posiedzenia sejmowej podkomisji ds. spraw antymonopolowych i ochrony konsumentów 23 marca br., poświęconej nieprawidłowościom na rynku e-commerce, szczególnie nieuczciwej konkurencji przez platformy zarządzane przez podmioty spoza Unii Europejskiej, prezes UOKiK Tomasz Chróstny poinformował, że urząd prowadzi dwa postępowania wobec Allegro – antymonopolowe i wyjaśniające. Postępowania toczą się również wobec innych platform internetowych, w tym m.in. Apple’ oraz usług Amazon Prime i Amazon Prime Video.

Te postępowania dotyczą w większości podstawowych kwestii, jak np. regulaminów czy zmian wprowadzanych w tych regulaminach, stosowania bądź niestosowania klauzul modyfikacyjnych i zmieniania umów pomimo tego. Ponadto UOKiK kwestionuje też m.in. sposób, w jaki przedsiębiorcy informują konsumenta o podwyżkach cen, o pobieraniu dodatkowych opłat bądź o promocjach czy sposobach odstąpienia od umowy. Jednym z zarzutów jest również długi okres pomiędzy odstąpieniem od umowy a zwrotem opłaty – wylicza Marcin Trepka.

Internetowy handel przeżywa w ostatnich latach boom, a pandemia COVID-19 tylko zintensyfikowała ten trend. Według wyliczeń PwC w 2020 roku sprzedaż online w Polsce zwiększyła się o 35 proc., a kanał e-commerce osiągnął 14-proc. udział w wartości sprzedaży detalicznej i był wart ok. 100 mld zł (raport „Perspektywy rynku e-commerce w Polsce” 2021). Szacunki zakładają, że do 2026 roku wartość brutto polskiego rynku e-commerce, na którym działa około 150 tys. przedsiębiorstw, sięgnie już 162 mld zł, co oznacza średnioroczny wzrost na poziomie 12 proc.

Ekspert Baker McKenzie zwraca jednak uwagę, że przedsiębiorcy, którzy chcą skorzystać na szybkim rozwoju tego rynku, powinni na starcie zwrócić uwagę na kilka podstawowych kwestii prawnych, m.in. formułować swoje regulaminy i wzorce umów w sposób prosty i zrozumiały dla konsumenta oraz unikać stosowania klauzul otwartych.

– Jeżeli mają zamiar stosować klauzule modyfikacyjne, powinny to być klauzule skonstruowane w sposób prawidłowy, nie ma tam miejsca na niedomówienia. Praktyka pokazała już, że UOKiK od razu to kwestionuje – mówi radca prawny. – Przedsiębiorcy powinni też zwracać uwagę na tzw. komunikację wewnątrzproduktową, żeby konsumenci nie otrzymywali informacji mylących albo przedstawionych w taki sposób, że mogłoby to zostać uznane za wprowadzenie w błąd.

Rozwój farm wiatrowych na Bałtyku może wymagać specustawy. Przyjęte do tej pory regulacje mogą...

– Tym, czego może nam brakować w najbliższych latach i co stanowi wąskie gardło w rozwoju morskiej energetyki wiatrowej, są regulacje, które wciąż w niewystarczający sposób zapewniają, że proces developmentu będzie przeprowadzony wystarczająco szybko – mówi Michał Piekarski, partner w kancelarii Baker McKenzie. Jego zdaniem realizacja tak ogromnych inwestycji może wymagać nie kosmetycznych zmian w ustawach czy rozporządzeniach, ale dedykowanej specustawy. Potrzebne jest m.in. zdecydowane przyspieszenie procesu wydawania decyzji administracyjnych i przyznawania nowych pozwoleń lokalizacyjnych na Morzu Bałtyckim. Inaczej nie uda się dotrzymać ambitnych harmonogramów inwestycyjnych, zgodnie z którymi przed 2030 rokiem moc zainstalowana w offshore mogłaby sięgnąć nawet 10 GW, o wiele więcej, niż zakłada aktualna Polityka energetyczna Polski do 2040 r​oku.

Otoczenie prawne dla rozwoju branży offshore dziś wygląda bez wątpienia lepiej niż jeszcze kilka lat temu, głównie za sprawą ustawy o promowaniu wytwarzania energii elektrycznej w morskich farmach wiatrowych, która weszła w życie na początku 2021 roku i stworzyła podstawy dla rozwoju takich projektów. Mimo to pod względem regulacyjnym sytuacja branży offshore’owej wciąż jest jednak daleka od ideału.

Projekty w Polsce rozwijane są w dwóch fazach. Pierwsza, która teraz jest już praktycznie na etapie zakupów, czyli procurementu, zamawiania dóbr i usług na potrzeby realizacji tych projektów. Natomiast druga jest w kluczowym momencie przyznawania nowych pozwoleń lokalizacyjnych na Morzu Bałtyckim. Ta druga faza jest regulowana tzw. rozporządzeniem rozstrzygającym. I tutaj pojawiają się problemy związane z interpretacją tegoż rozporządzenia i emocje związane z tym, do czego to rozporządzenie nas zaprowadzi, kto otrzyma pozwolenia lokalizacyjne na Bałtyku. Jest więc przestrzeń do tego, żeby tę regulację wciąż poprawiać i sprawić, że ona będzie jednoznaczna, niekoniecznie promująca określone grupy inwestorów, a takie zagrożenie rzeczywiście może w tej chwili istnieć – mówi agencji Newseria Biznes Michał Piekarski, partner i szef praktyki Energetyki i Infrastruktury w kancelarii Baker McKenzie.

Jesienią ubiegłego roku zawarte zostało porozumienie sektorowe na rzecz rozwoju morskiej energetyki wiatrowej w Polsce, którego sygnatariuszami są m.in. organy administracji rządowej i kluczowe ministerstwa, podmioty z sektora oświaty i nauki, inwestorzy oraz organizacje branżowe – łącznie ponad 200 podmiotów. Dokument, który został dobrze przyjęty przez branżę, ma stanowić bazę do współpracy i przyczynić się do maksymalizacji tzw. local content, czyli udziału polskich przedsiębiorców w łańcuchu dostaw dla morskiej energetyki wiatrowej. Rząd zapowiedział też uproszczenia dotyczące postępowań administracyjnych związanych z budową farm wiatrowych w polskiej wyłącznej strefie ekonomicznej na Bałtyku. Ekspert ocenia jednak, że to wciąż za mało, aby przyspieszyć rozwój takich projektów.

– Pewne nowelizacje przepisów zostały wprowadzone, ale to jeszcze stanowczo za mało. Przy projektach o łącznej mocy niemal 11 GW, a docelowo mówimy łącznie o 15–16 GW z uwzględnieniem trzeciej fazy, nie ma przestrzeni do drobnych zmian w przepisach. To jest miejsce być może do zaprojektowania i wdrożenia specustawy, która – na wzór innych, krytycznych dla sektora energetycznego obszarów – pozwoliłaby dać impuls do rozwoju i radykalnie uprościć ścieżkę otrzymywania pozwoleń – ocenia ekspert Baker McKenzie. – Niestety szanse oceniam jako umiarkowane, de facto nie jest to aktualnie przedmiot dyskusji.

Jak wynika z szacunków WindEurope, przytaczanych w raporcie PSEW („Wizja dla Bałtyku. Wizja dla Polski”), na polskich wodach Bałtyku jest potencjał do zainstalowania 28 GW mocy. W perspektywie 2050 roku farmy wiatrowe na morzu mogłyby zaspokoić prawie 60 proc. krajowego zapotrzebowania na prąd. To jednak długofalowa, optymistyczna perspektywa, która wymagałaby mocnego impulsu rozwojowego i dużych ułatwień dla branży przy realizacji takich projektów. Jak na razie rządowa strategia zakłada, że do końca obecnej dekady moc zainstalowana w offshore ma sięgnąć ok. 5,9 GW, a w 2040 roku – 11 GW.

– Cały czas jest wiara w to, że te harmonogramy – już teraz szalenie ambitne – w aktualnym otoczeniu prawnym są możliwe do realizacji. Chciałbym być dobrej myśli, ale wydaje mi się, że te cele i daty, o których mówimy, są jednak niewyobrażalnie optymistyczne. Aby móc ich dotrzymać, trzeba by rozpocząć rozmowy już dzisiaj – mówi Michał Piekarski. – Musimy mieć silny impuls ze strony rządu, program rozwoju morskiej energetyki wiatrowej musi być programem z całą mocą wspieranym przez państwo, również w drodze administracyjnych ułatwień, i zmobilizować inwestorów, łańcuchy dostaw i urzędy odpowiedzialne za wydawanie pozwoleń, aby druga oraz trzecia faza tych projektów rozwijała się jak najszybciej. Ten impuls i wspólne działanie są absolutnie kluczowe.

Zainteresowanie inwestorów zagranicznych realizacją inwestycji na polskich wodach Bałtyku jest ogromne, co widać po wnioskach złożonych w drugiej fazie realizacji projektów offshore’owych, czyli o wydanie pozwoleń lokalizacyjnych. W grze są najwięksi światowi gracze.

Istniejące przepisy mogą jednak – w sposób niebezpośredni – powodować, że balans między podmiotami z Polski, należącymi do Skarbu Państwa, versus podmiotami zagranicznymi w wolumenie rozdanych pozwoleń lokalizacyjnych może być lekko zachwiany. Natomiast to nie jest jeszcze przesądzone. Tajemnicą przedsiębiorstwa podmiotów zagranicznych jest to, jakie mają asy w rękawie i czego użyją w procedurze rozstrzygającej – mówi szef praktyki Energetyki i Infrastruktury w Baker McKenzie. – Perspektywa rozwoju energetyki to nie miesiące czy lata, ale dekady. Jestem pewien, że w ciągu najbliższej dekady projekty morskiej energetyki wiatrowej w Polsce będą rozwijane wspólnie przez krajowe podmioty – takie jak PKN Orlen czy PGE oraz podmioty zagraniczne, zarówno z sektora odnawialnego, a może i z branży oil and gas, która w tym momencie przechodzi transformację energetyczną.

Poza kwestiami regulacyjnymi konieczne dla przyspieszenia rozwoju offshore w Polsce jest tworzenie lokalnego łańcucha dostaw.

Aby zrealizować projekty o wartości 10, 20 czy 30 mld zł, potrzebne są nie tylko wola i finansowanie, ale też ręce do pracy. Byłoby wspaniale, gdybyśmy mogli te projekty realizować polską kadrą. Potrzebne są również fabryki, porty instalacyjne i cały łańcuch dostaw, który już w tym momencie powinniśmy budować, żeby móc realizować projekty offshore teraz i za kilka lat – mówi Michał Piekarski.

CERT Orange Polska: Rośnie skala cyberzagrożeń, ale też skuteczność ich wykrywania. W ubiegłym roku...

Rośnie skala, ale też skuteczność ochrony przed internetowymi zagrożeniami. CyberTarcza, która broni przed nimi użytkowników sieci mobilnej i stacjonarnej Orange, w 2021 roku ochroniła 4,5 mln osób przed utratą danych i pieniędzy – wynika z nowej edycji raportu CERT Orange Polska. Skala cyberprzestępczości szybko rośnie, bo już w I kwartale 2022 roku liczba klientów sieci Orange, ochronionych przed skutkami ataków, sięgnęła 2,25 mln. – W walce z cyberzagrożeniami pomagają rozwiązania oparte na uczeniu maszynowym i sztucznej inteligencji. Kluczowa jest też konsekwentna edukacja internautów – mówi Piotr Jaworski, członek zarządu Orange Polska ds. Sieci i Technologii. 

– Ubiegły rok upłynął pod znakiem phishingu i złośliwego oprogramowania instalowanego na urządzeniach klientów. Ten trend jest widoczny już od kilku lat – mówi agencji Newseria Biznes Piotr Jaworski, członek zarządu Orange Polska odpowiedzialny za sieć i technologie. – Już w 2018 roku zauważyliśmy, że udział phishingu w ogóle ataków wzrósł z kilku procent do ponad 20 proc., a w 2019 roku to już było 40 proc. i na tym poziomie utrzymuje się do tej pory. To właśnie phishing jest w tej chwili jednym z największych cyberzagrożeń wymierzonych w  indywidualnego użytkownika, aczkolwiek firmy też mogą paść łupem cyberprzestępców, jeśli nieostrożny, nieuważny pracownik da się oszukać.

Z nowej edycji raportu CERT Orange Polska wynika, że phishing pozostaje najpowszechniejszym typem złośliwych ataków. Odpowiada za prawie 40 proc. wszystkich wykrytych w sieci operatora zagrożeń. Cyberprzestępcy wciąż jednak doskonalą techniki phishingu, wyłudzając dane logowania i pieniądze na wiele różnych sposobów. Wysyłają w SMS-ach linki do stron łudząco przypominających witryny banków czy firm kurierskich pod pretekstem dopłaty do przesyłki czy rachunku za energię, tworzą fałszywe sklepy, loterie albo zachęcają do inwestycji na nieistniejących giełdach kryptowalut. Często celują też w użytkowników portali z ogłoszeniami i platform sprzedażowych, podając się za kupujących i podsuwając im linki do fałszywych stron do rzekomego odbioru pieniędzy.

– Phishing generalnie polega na wyłudzeniu tożsamości i danych logowania ofiary – wyjaśnia Piotr Jaworski. – Musimy mieć świadomość, co utrata danych oznacza, że np. dane logowania do konta bankowego pozwalają to konto wyczyścić. Innymi słowy, ofiara, która dała się nabrać, może stracić wszystkie środki zgromadzone na koncie bankowym – przestrzega ekspert.

Rosnącą skalę zagrożenia odzwierciedlają setki milionów zdarzeń phishingowych, które zespół CERT Orange Polska zablokował w 2021 roku. Łącznie w 2021 roku CyberTarcza, która chroni użytkowników sieci mobilnej i stacjonarnej Orange przed zagrożeniami w internecie, powstrzymała ponad 335 mln incydentów phishingowych powiązanych m.in. z wyłudzaniem danych logowania do kont bankowych lub profili społecznościowych. Uchroniła w ten sposób 4,5 mln osób. To skokowy wzrost, bo jeszcze w 2020 roku liczba zablokowanych incydentów oscylowała wokół 40 mln, a CyberTarcza ochroniła 3,5 mln użytkowników przed utratą danych i pieniędzy. Jak wskazuje ekspert, tegoroczne statystyki mogą być wyższe, bo już w I kwartale 2022 roku liczba klientów sieci Orange, których operator ochronił przed zagrożeniami, sięgnęła 2,25 mln.

– Tyle osób nie straciło swoich pieniędzy, ich urządzenia nie zostały przejęte przez cyberprzestępców do tego, żeby mogli dalej szerzyć swój proceder. To świadczy o tym, że jesteśmy coraz skuteczniejsi, ale z drugiej strony niestety odzwierciedla też skalę zjawiska, z jakim się mierzymy – mówi Piotr Jaworski.

Specjaliści od cyberbezpieczeństwa zaobserwowali też, że w ostatnich miesiącach coraz częściej phishingowi towarzyszy instalacja złośliwego oprogramowania.

– Po zainstalowaniu takiego oprogramowania ofiara nie tylko udostępnia swoje dane, ale i jej urządzenie staje się dla cyberprzestępcy narzędziem do dalszego działania. Może np. wykorzystywać je do tego, żeby infekować kolejnych użytkowników – mówi członek zarządu Orange Polska odpowiedzialny za sieć i technologię.

Statystyki pokazują, że złośliwe oprogramowanie było drugim najczęstszym zagrożeniem w sieci w 2021 roku, odpowiadając za prawie 18 proc. wszystkich incydentów zarejestrowanych przez CERT Orange Polska. Co więcej, w ubiegłym roku pojawił się nowy rodzaj malware’u – Flubot – wykradający kontakty z książek adresowych zainfekowanych smartfonów. Następnie te wykradzione numery były wykorzystywane do masowego rozsyłania SMS-ów podszywających się np. pod pocztę głosową i nakłaniających kolejne ofiary do zainstalowania złośliwych aplikacji. Zainfekowane w ten sposób telefony później służyły do dalszego rozpowszechniania malware’u.

– O skali tego procederu mogą zaświadczyć liczby, bo w ubiegłym roku notowaliśmy dziennie nawet milion takich SMS-ów – mówi Piotr Jaworski.

Na tym zagrożenia się jednak nie kończą, bo w ubiegłym roku zbliżony odsetek (17 proc.) stanowiły też ataki DDoS. Pozostają one też jednym z największych zagrożeń dla firm. Pojawiają się też nowe, związane m.in. z internetem rzeczy. Cyberprzestępcy wykorzystują do ataków nie tylko luki w infrastrukturze czy podatność oprogramowania, lecz także braki w przeszkoleniu pracowników.

Według CERT Orange Polska w tym roku – prócz wyłudzeń phishingowych – można się spodziewać kolejnych ataków DDoS o dużym wolumenie m.in. na sektor bankowy, a także ataków na giełdy kryptowalut oraz kradzieży portfeli z kryptowalutami. 

– Warto również wspomnieć o kradzieżach tożsamości elektronicznej, co jest niezwykle istotne, ponieważ bardzo wielu przestępców kradnie dane pracownika firmy – jego loginy, hasła, tokeny etc. – i potem podszywa się pod niego, uzyskując dostęp do zasobów firmy. To są takie incydenty, które w 2022 roku będą dominowały – mówi ekspert.

Walkę z cyberzagrożeniami wspierają rozwiązania oparte na uczeniu maszynowym i sztucznej inteligencji, co pozwala przewidywać i zawczasu zapobiegać wielu incydentom naruszenia bezpieczeństwa w sieci. Technologie znacznie skracają też czas reakcji, bo około 40 proc. domen phishingowych kończy swoją aktywność w ciągu kilku minut od wizyty pierwszej ofiary. Dlatego właśnie przyszłością są zautomatyzowane narzędzia i sztuczna inteligencja, wspierające ekspertów z zakresu cyberbezpieczeństwa.

– Powiedzmy sobie wprost: bez automatyzacji, sztucznej inteligencji i machine learningu wielu rzeczy nie dalibyśmy rady zrobić. Wykorzystujemy te narzędzia do tego, żeby rozbudować algorytmy, którymi „karmimy” naszą CyberTarczę. To jest nasze autorskie rozwiązanie, które przede wszystkim wykrywa zagrożenia i chroni naszych klientów – mówi Piotr Jaworski.

Operator wdrożył w swojej sieci także technologię RPKI, czyli „kryptograficzny podpis dla zasobów IP”, który dodatkowo zabezpiecza sieć szkieletową. Utrudnia to przejęcie ruchu internetowego.

CERT Orange Polska – specjalistyczny zespół ds. walki z cyberprzestępczością – działa w Polsce już od 25 lat, ściśle współpracując m.in. z NASK i CERT-ami innych instytucji, a także organizacjami międzynarodowymi.

– Oprócz szerzenia świadomości, edukacji internautów, której nigdy za wiele, to właśnie współpraca jest kluczowa w świecie cyberbezpieczeństwa.  Bardzo istotna jest też dla nas wymiana międzynarodowa. Pozwala ona w wielu wypadkach zapobiec zdarzeniom, które miały miejsce w innych krajach na świecie i z dużym prawdopodobieństwem mogłyby się wydarzyć też w Polsce – mówi Piotr Jaworski.

Eksperci prognozują co najmniej kilkunastoprocentowy wzrost cen usług telekomunikacyjnych. Jeśli ustawa o cyberbezpieczeństwie wejdzie...

Przedsiębiorcy rynku telekomunikacyjnego, prawnicy, eksperci i politycy krytykują tryb procedowania nowelizacji ustawy o krajowym systemie cyberbezpieczeństwa. Siódma wersja projektu, która pojawiła się w marcu, podobnie jak pięć poprzednich nie została poddana konsultacjom społecznym, mimo wprowadzania do nich istotnych zmian. Krytyka dotyczy szczególnie możliwości wykluczania z rynku pochodzących spoza UE i NATO dostawców sprzętu i usług ICT. Eksperci ostrzegają, że konieczność rezygnacji ze sprzętu danego dostawcy będzie dla operatorów oznaczała spory wydatek. Koszty szacowane na miliardy złotych zostaną ostatecznie przeniesione na konsumentów. 

 Prace nad ustawą o cyberbezpieczeństwie trwają od prawie dwóch lat. W tej chwili mamy do czynienia już z siódmą wersją tego projektu. Zgłoszono do tej pory 750 poprawek i praktycznie – oprócz tej początkowej wersji – nie było żadnych konsultacji. Widać, że sposób procedowania tej ustawy jest patologiczny. A to oznacza, że nie może prowadzić do dobrych rezultatów, ponieważ nie uwzględni interesów bardzo dużej grupy polskich przedsiębiorstw – mówi agencji Newseria Biznes Andrzej Arendarski, prezydent Krajowej Izby Gospodarczej. – Rozumiem, że szczególnie teraz względy bezpieczeństwa są na pierwszym miejscu, ale nie mogą być przykrywką do partactwa legislacyjnego i do pomijania interesariuszy, istotnych z punktu widzenia przyszłego kształtu ustawy.

Ustawa o krajowym systemie cyberbezpieczeństwa (KSC), przyjęta w 2018 roku, to pierwszy w Polsce akt prawny dotyczący tego obszaru. Rząd już od jesieni 2020 roku przymierza się do jej nowelizacji, która ma wzmocnić polskie bezpieczeństwo cybernetyczne. Nowela wpłynie też na kształt całego polskiego rynku telekomunikacyjnego oraz wdrażanie w Polsce sieci 5G i wybór dostawców infrastruktury dla tej technologii. Prace nad nowelizacją od początku budzą kontrowersje. Zgłoszone w czasie pierwszych – i jedynych konsultacji – uwagi ze strony rynku zostały jednak uwzględnione w stopniu marginalnym, za to w kolejnych wersjach projektu rząd wprowadzał daleko idące zmiany, jak np. pomysł powołania państwowego operatora telekomunikacyjnego. Nie zostały one jednak omówione z rynkiem. Dlatego wątpliwości branży i ekspertów budzą zarówno jego zapisy, jak i tryb procedowania.

– W intencji zapisy tej ustawy mają prowadzić do zwiększenia cyberbezpieczeństwa naszego kraju i szerzej, Unii Europejskiej i NATO, bo jesteśmy częścią tych organizacji. Natomiast sposób, w jaki to jest przeprowadzane, chaos będzie prowadził raczej w kierunku odmiennym. Dlatego jako Krajowa Izba Gospodarcza kilka dni temu wysłaliśmy pismo do premiera, domagając się rzetelnych konsultacji ze wszystkimi interesariuszami rynku telekomunikacyjnego – mówi Andrzej Arendarski.

Jedną z największych kontrowersji w projektowanej ustawie jest od początku mechanizm oceny profilu ryzyka dostawców sprzętu i usług ICT na polski rynek. Ma jej dokonywać rządowe Kolegium ds. Cyberbezpieczeństwa, które pod uwagę weźmie szereg kryteriów technicznych i nietechnicznych. Zgodnie z najnowszą wersją projektu są wśród nich m.in. certyfikaty oraz liczba i rodzaj wykrytych podatności, ale kolegium uwzględni też to, czy dostawca pochodzi spoza UE lub NATO oraz jakie stwarza ryzyko dla realizacji zobowiązań sojuszniczych i europejskich.

Co ciekawe, w pierwotnej wersji projektu jednym z kryteriów było również to, czy w kraju pochodzenia dostawcy są przestrzegane prawa człowieka, jednak rząd po fali krytyki wycofał się z tego pomysłu. Zdaniem rynku i ekspertów narodowościowe kryteria są bowiem wprost wymierzone w dostawców technologii z Chin.

–  Im bardziej radykalna wersja przepisów przejdzie, im krótszy będzie czas na ewentualną wymianę sprzętu, im więcej dostawców zostanie z rynku wyrzuconych, a mówimy o całym zbiorze różnych firm, które produkują sprzęt w Azji i mogą zostać z tego rynku usunięte, tym większe będą koszty. I tutaj mamy, w mojej ocenie, w tej chwili jedną wielką niewiadomą. Natomiast koszty pośrednie i bezpośrednie wzrosną i to jest coś, z czym wszyscy właściwie eksperci, którzy brali udział w dyskusji Zespołu ds. Ochrony Praw Konsumentów i Przedsiębiorców, się zgadzają, i coś, czego rząd nie uwzględnia w swoich analizach i nie komunikuje tego transparentnie społeczeństwu, ile ta operacja może kosztować – mówi Krzysztof Bosak, poseł Konfederacji, który uczestniczył w debacie parlamentarnego zespołu, jaka odbyła się 22 kwietnia br. na terenie Sejmu.

Projektowany w ustawie mechanizm oceny jest istotny o tyle, że na jego podstawie – bazując na opinii Kolegium ds. Cyberbezpieczeństwa – minister właściwy ds. informatyzacji będzie mógł podjąć decyzję o uznaniu danego dostawcy za tzw. dostawcę wysokiego ryzyka, czyli podmiot stanowiący „poważne zagrożenie dla obronności, bezpieczeństwa państwa lub bezpieczeństwa i porządku publicznego”. Nadanie takiego statusu będzie zaś de facto oznaczać wykluczenie z polskiego rynku, bez realnych narzędzi odwoławczych.

– Od tej decyzji nie ma odwołania. To też bardzo dziwi, bo właściwie każde prawo, które w czymś ogranicza przedsiębiorców, powinno mieć swoją drogę odwoławczą. Tutaj takiej drogi nie ma. Decyzja raz podjęta na zawsze wyklucza daną firmę z polskiego rynku telekomunikacyjnego – zauważa Andrzej Arendarski.

Operatorzy i firmy telekomunikacyjne, które korzystają ze sprzętu i usług dostawcy wysokiego ryzyka, zgodnie z ustawą będą zmuszone pozbyć się ich w ciągu kilku lat. To zaś oznacza dla nich wielomiliardowe koszty, związane choćby z wymianą sprzętu na nowy. Eksperci wskazują, że bez wątpienia odbije się to na cenach usług dla klientów.

– Jeżeli wartość zakupu sprzętu w przypadku budowy infrastruktury 5G na jednego operatora to będą kwoty liczone w setkach milionów złotych, to jeśli wiemy, że jest czterech operatorów, daje nam to wartości liczone w miliardach. Operatorzy nie są instytucjami charytatywnymi. To są firmy obliczone na zysk, osiągnięcie jak najlepszych wyników finansowych – wobec tego te koszty będą musiały zostać rozłożone na klientów, którzy korzystają z ich usług – mówi prof. dr hab. Maciej Rogalski, rektor Uczelni Łazarskiego. – Można z pewnym założeniem stwierdzić, że ten wzrost cen usług telekomunikacyjnych będzie o co najmniej kilkanaście procent, jeżeli nie więcej.

Do oceny dostawców sprzętu i usług ICT zostali dopuszczeni – po wielomiesięcznych apelach z rynku – operatorzy i firmy telekomunikacyjne. Taką możliwość dostali jednak tylko najwięksi gracze, którzy w poprzednim roku wypracowali obroty w wymaganej ustawą wysokości (równowartość około 113 mln zł). To oznacza, że MŚP będą z tej procedury wykluczone, co de facto pozbawia je możliwości decydowania o kształcie rynku, na którym prowadzą działalność. Jak wskazuje w liście do premiera KIG, o ile ustawa nakłada obowiązek na 4 tys. przedsiębiorców telekomunikacyjnych, o tyle szczególne uprawnienia przyznano tylko kilkunastu.

 W świetle dotychczasowych zapisów projektów ustawy o cyberbezpieczeństwie małe i średnie firmy mogą poczuć się dyskryminowane, ponieważ są wykluczane z procesu decyzyjnego dotyczącego dopuszczenia na polski rynek dostawców sprzętu spoza krajów Unii Europejskiej i NATO – mówi Andrzej Arendarski. – Trzeba dopuścić do udziału w tym procesie nie tylko te największe firmy, tych gigantów operatorów, ale również przedstawicieli MŚP, choćby w formie izb przemysłowo-handlowych, które zrzeszają takie przedsiębiorstwa.

Eksperci wprost wskazują, że projektowana ustawa o cyberbezpieczeństwie będzie mieć daleko idące konsekwencje ekonomiczne i wpłynie na rozwój polskiego rynku telekomunikacyjnego w nadchodzących latach, dlatego powinna zostać poddana rzetelnym konsultacjom publicznym. Co istotne, jej kształt może mieć też wpływ na relacje między Polską i Chinami, które – w obawie przed dyskryminacją swoich firm – podejmą działania odwetowe wymierzone w przedsiębiorstwa z Polski.

– Tego rodzaju rozwiązanie, że wyklucza się określone podmioty tylko z tej racji, że pochodzą z innego kraju czy innego obszaru gospodarczego, jest zawsze bardzo ryzykowną operacją z punktu widzenia ekonomicznego, prawnego, podstawowych zasad konkurencji. Wykluczenie określonego dostawcy tylko z tego powodu, że pochodzi z innego kraju, oznacza możliwość wygenerowania problemów o charakterze prawnym z tytułu przepisów obowiązujących w regulacjach unijnych, ale także i umów międzynarodowych, które zakładają wolność, swobodę handlu międzynarodowego. To także ryzyko retorsji ze strony krajów, z których pochodzą ci producenci – zauważa prof. Maciej Rogalski.

– Jesteśmy zwolennikami dbania o cyberbezpieczeństwo, ale z uwzględnieniem zasad wolności gospodarczej, nieingerowania w rynek bardziej niż to absolutnie niezbędne. A to powinno wynikać z pewnych obiektywnych miar o charakterze technicznym, z wymagań sprzętowych, z certyfikacji sprzętu i stosowanych zabezpieczeń czy też trybu świadczonego wsparcia w przypadku wystąpienia jakichś zagrożeń, incydentów, awarii, naruszeń – mówi Krzysztof Bosak. – W naszym odbiorze ten sposób konstruowania przepisów ma dużo wspólnego z polityką, a bardzo mało z cyberbezpieczeństwem – zwraca uwagę poseł.

Pandemia i wojna zepchnęły zmiany klimatu na drugi plan. Tymczasem zagrożenia środowiskowe w tym...

Pandemia COVID-19, a teraz wojna w Ukrainie sprawiły, że temat zmian klimatu i ekologii zszedł na drugi plan. Tymczasem – jak wskazywało już dwa lata temu WWF Polska – to właśnie w czasie pandemii Ziemia doświadczyła większego marnotrawstwa żywności i zwiększonej produkcji odpadów, w tym z tworzyw sztucznych, które nie podlegają recyklingowi. Wszystko to przekłada się na ślad węglowy, który musi być ograniczany, aby przeciwdziałać katastroficznym w skutkach zmianom klimatu. O tym właśnie przypomina nowa kampania Ministerstwa Klimatu i Środowiska – Nasz Klimat, której celem jest podniesienie świadomości na temat możliwych proekologicznych działań każdego z nas. Także przypadający 22 kwietnia Światowy Dzień Ziemi jest dobrą okazją do ekologicznej edukacji.

– W Polsce widzimy co roku zmiany klimatu, które dotykają każdego z nas. To są m.in. susze, opady, które są bardziej intensywne niż kiedyś. I to rodzi oczywiście konsekwencje dla naszego codziennego życia. Dlatego też powinniśmy podejmować działania w trosce o naszą przyszłość jako kraj i społeczeństwo i redukować emisję gazów cieplarnianych, żeby ograniczać wpływ zmian klimatu na nasze życie – mówi agencji Newseria Biznes Adam Guibourgé-Czetwertyński, podsekretarz stanu w Ministerstwie Klimatu i Środowiska.

Jeżeli globalne ocieplenie ma zostać zahamowane w granicach bezpiecznego progu 1,5–2°C, trzeba szybko i mocno obciąć emisje gazów cieplarnianych, ale również usunąć nadmiar CO2 z powietrza – to najważniejsze wnioski ekspertów Międzyrządowego Panelu ds. Zmian Klimatu (IPCC) działającego przy ONZ. Z przygotowanego przez niego raportu wynika, że już od 3,3 do 3,6 mld ludzi na całym świecie odczuwa skutki zmian klimatu w postaci powodzi, suszy, klęsk żywiołowych, rekordowych upałów i pożarów. Skutki tych zmian nie omijają też Polski.

Prognozy IPCC zakładają, że przy dużym wzroście globalnej temperatury w Polsce liczba ofiar śmiertelnych z powodu upałów może w kolejnych latach wzrosnąć nawet trzykrotnie, do ok. 3 tys. rocznie, co pociągnie za sobą m.in. problem przeciążenia służby zdrowia. Nasilą się gwałtowne zjawiska pogodowe, susze będą częstsze i bardziej dotkliwe. Problemem mogą się też okazać niedobory wody dla ludzi i przemysłu, skutkujące stratami ekonomicznymi. W scenariuszu utrzymania wysokich emisji gazów cieplarnianych do końca wieku niedoborów wody pitnej może w efekcie doświadczać nawet ok. 15 mln Polaków.

Jednym z największych grzechów dotyczących środowiska i zmian klimatu jest brak poczucia sprawczości. Wydaje nam się, że nasze pojedyncze, jednostkowe decyzje absolutnie nie mają wpływu na to, co się zadzieje z kondycją planety. To, czy podniesiemy śmieć, który leży na ulicy, albo czy wrzucimy plastik, butelkę po oleju czy słoik do odpowiedniego kosza wydaje się nam bez znaczenia, bo ktoś to później za nas załatwi, te śmieci później się jakoś rozpłyną. Otóż nie, to wszystko do nas wraca. Każda negatywna decyzja odbije się w pewnym momencie w postaci emisji gazów cieplarnianych, które powinniśmy ograniczać po to, żeby planeta nam się nie przegrzewała. Ta planeta spokojnie sobie bez nas poradzi, my bez niej nie – mówi Sylwia Majcher, edukatorka ekologiczna i influencerka.

Plusem jest to, że prowadzone cyklicznie badania pokazują stopniowy wzrost świadomości i postaw proekologicznych wśród Polaków. Z raportu CBOS („Świadomość ekologiczna Polaków” 2020) wynika, że 53 proc. ma obawy o stan środowiska w Polsce, a ogromna większość (81 proc.) uważa, że ich własne zachowania i styl życia istotnie przekładają się na jego stan.

Podobne wnioski płyną z badania trackingowego przeprowadzonego dla Ministerstwa Klimatu i Środowiska, które dotyczy świadomości i zachowań ekologicznych Polaków. W jego ostatniej edycji prawie 3/4 Polaków zadeklarowało, że środowisko trzeba chronić z uwagi na przyszłe pokolenia. To najwyższy wynik uzyskany na przestrzeni wszystkich edycji tego badania. Wynika z niego również, że w trosce o klimat i środowisko ponad 96 proc. Polaków deklaruje regularne segregowanie odpadów, a ponad 3/4 jest skłonnych wydawać więcej na „czystą” energię. Polacy znacznie częściej niż w poprzednich latach zwracają też uwagę na ograniczenie zużycia wody (ponad 90 proc. wskazań) i wybierają rozwiązania ekologiczne – nawet wtedy, gdy oznacza to dodatkowy koszt (82 proc.). 61 proc. zadeklarowało także skłonność do korzystania z roweru bądź komunikacji miejskiej zamiast samochodu.

Przy wdrażaniu prośrodowiskowych postaw w społeczeństwie kluczowa jest edukacja dzieci. Myślę, że wszyscy rodzice zetknęli się kiedyś z pytaniami typu: „mamo, a dlaczego wyrzucamy baterie do tego worka na śmieci, a nie odnosimy ich do sklepu” albo „dlaczego nie segregujemy śmieci?” – mówi Adam Guibourgé-Czetwertyński.

W ramach edukacji ekologicznej, kierowanej zwłaszcza do dzieci i młodzieży, Ministerstwo Klimatu i Środowiska zainaugurowało na początku kwietnia kampanię Nasz Klimat. Jej celem jest podniesienie świadomości na temat indywidualnych działań, jakie każdy może podejmować na rzecz ochrony klimatu, w myśl hasła „Klimat tworzą ludzie”.

– Ogólnopolska kampania Nasz Klimat ma na celu zaprezentowanie takich działań, które są możliwe do podjęcia na rzecz ochrony klimatu przez każdego z nas – mówi podsekretarz stanu w Ministerstwie Klimatu i Środowiska. – W ramach tej kampanii przygotowaliśmy materiały dla samorządów i materiały dla szkół, które mogą być wykorzystane do przeprowadzenia lekcji na temat ochrony klimatu. Uruchomiliśmy też konkurs dla szkół ponadgimnazjalnych – wideoolimpiadę, w której grupy uczniów mogą wspólnie proponować działania, jakie można podjąć na rzecz klimatu.

Aby trafić do młodego pokolenia, kampania Nasz Klimat obejmuje też współpracę z blogerami i influencerami, którzy na co dzień poruszają zagadnienia związane z klimatem i ochroną środowiska. Akcja ma jednak trafić do odbiorców w różnym wieku, dlatego będzie prowadzona wielokanałowo, m.in. za pośrednictwem prasy, radia, internetu i social mediów. W telewizji będzie można zobaczyć spoty pokazujące, jak niewiele potrzeba, aby wdrożyć ekologiczne nawyki do codziennego życia. Z kolei w materiałach dla samorządów znalazły się praktyczne porady, w jaki sposób wdrażać proklimatyczne działania w gminie. 

Coraz więcej firm i instytucji bierze udział w tworzeniu Polskiej Doliny Medycznej. Pierwsze projekty...

W ciągu dziewięciu miesięcy działalności Warsaw Health Innovation Hub inicjatywa Agencji Badań Medycznych pozyskała 20 partnerów. To podmioty z szeroko pojętego sektora medycznego, które wspólnie chcą pracować nad innowacjami w branży i usprawniać tym samym polski system opieki zdrowotnej z korzyścią dla pacjentów. Pierwsze projekty już są gotowe. Dotyczą one m.in. wykorzystania sztucznej inteligencji oraz personalizowania terapii w onkologii. Współpraca podmiotów publicznych i firm prywatnych, m.in. producentów leków i technologii medycznych, ma w założeniu doprowadzić w ciągu kolejnych dwóch–trzech lat do powstania Polskiej Doliny Medycznej.

 Pierwsze projekty w ramach Warsaw Health Innovation Hub już się pojawiły. To są ciekawe rozwiązania z zakresu sztucznej inteligencji, z zakresu personalizowanej terapii w chorobach onkologicznych i aplikacji pomagających pacjentom świadomie uczestniczyć w procesie leczniczym – podkreśla w rozmowie z agencją Newseria Biznes dr hab. n. med. Radosław Sierpiński, prezes Agencji Badań Medycznych.

Warsaw Health Innovation Hub (WHIH) to utworzony w czerwcu ub.r. projekt Agencji Badań Medycznych, do którego dołączają firmy z sektora medycyny, technologii, farmacji i biotechnologii. To zarazem pierwsza taka inicjatywa w Europie Środkowej, która ma usprawnić współpracę sektora publicznego z biznesem. Jej celem jest tworzenie innowacyjnych rozwiązań medycznych, technologicznych i prawnych na rzecz poprawy wydajności polskiego systemu ochrony zdrowia i podnoszenia standardów świadczonych usług. Jak wskazuje Ministerstwo Zdrowia, powołanie WHIH to zupełnie nowe podejście do rozwoju opieki zdrowotnej w Polsce.

– Ta inicjatywa ma za zadanie połączyć ze sobą interesariuszy publicznej służby zdrowia oraz firmy farmaceutyczne i biotechnologiczne, które w tym systemie uczestniczą, np. dostarczając innowacyjne rozwiązania, terapie i nowe leki – mówi dr hab. Radosław Sierpiński. – Chcemy tworzyć platformę, która umożliwi szeroką dyskusję na temat tego, co jest potrzebne w tym systemie, jakie rozwiązania znalazłyby aprobatę na poziomie ministra zdrowia. Chcemy też, aby te firmy miały świadomość tego, jakie kierunki system ochrony zdrowia będzie podejmował, w którą stronę zmierzamy i jak możemy wypracowywać sytuacje win-win, gdzie z jednej strony korzystamy z ekspertyzy międzynarodowych koncernów, a z drugiej strony – polscy pacjenci zyskują dostęp do nowoczesnych terapii i metod diagnostycznych, które w innym przypadku nie byłyby dostępne.

WHIH ma stworzyć takie warunki, które pozwolą na szybkie przekształcanie pomysłów w nowe produkty i usługi. Działalność hubu ma dotyczyć trzech obszarów – innowacji farmaceutycznych (w tym technologii medycznych), innowacji w zakresie wyrobów medycznych oraz cyfrowych rozwiązań w obszarze służby zdrowia. Celem jest także wsparcie dla polskiego sektora biotechnologicznego i niezależności Polski w zakresie bezpieczeństwa lekowego. W dalszej perspektywie rozwój WHIH ma stworzyć zalążek pierwszej Polskiej Doliny Medycznej, która powstanie dzięki silnej, krajowej bazie akademickiej i najlepszych europejskich wzorcach.

– Polska Dolina Medyczna to plan, który nadal realizujemy, choć został on w pewnym stopniu przerwany przez pandemię koronawirusa. Chcemy jednak, żeby w którymś momencie ten potencjał współpracy na poziomie biznesu i partnerów publicznych faktycznie zaistniał. Na razie wspomniana Dolina Medyczna powstaje w  wirtualnym wydaniu, w ramach Agencji Badań Medycznych. Mam nadzieję, że w ciągu dwóch–trzech lat przeniesie się do fizycznej lokalizacji i stanie się zaczątkiem współpracy między naukowcami, klinicystami, między sektorem prywatnym i interesariuszami publicznymi – podkreśla prezes ABM.

Jak dotąd prywatni partnerzy Warsaw Health Innovation Hub będą inicjować i finansować we własnym zakresie programy ukierunkowane na tworzenie innowacji wspierających polską służbę zdrowia. Poza tym w ramach funduszy grantowych będą też inwestować w najlepsze zespoły badawcze z Polski i opracowywane przez nie rozwiązania. Polscy naukowcy zyskają dzięki temu możliwość współpracy z największymi, globalnym firmami w zakresie biotechnologii i innowacji.

– Warsaw Health Innovation Hub jest unikalną na skalę Europy platformą, posiadającą olbrzymi potencjał do wprowadzenia znaczących usprawnień w sektorze ochrony zdrowia – podkreśla Marcin Bruszewski, dyrektor generalny Health Systems w Philipsie, jednym z partnerów, który pod koniec ubiegłego roku dołączył do WHIH. – Philips od ponad 130 lat na świecie i 100 lat w Polsce wdraża rozwiązania oparte na technologiach i innowacjach, zmieniając życie ludzi na lepsze. Są to wartości, które obok wieloletniego doświadczenia i stojącego za nim zrozumienia lokalnej służby zdrowia chcemy wnieść do współpracy z WHIH.

Prezes Agencji Badań Medycznych wskazuje, że WHIH błyskawicznie się rozwija. Podczas inauguracji w czerwcu ub.r. do inicjatywy przystąpiło pięć firm, teraz jest już ich 20.

– Warsaw Health Innovation Hub rozrasta się w sposób przekraczający nasze oczekiwania – mówi dr Radosław Sierpiński. – To pokazuje potrzebę istnienia tego typu instytucji w dyskursie publicznym. W tym jednym miejscu gromadzimy interesariuszy publicznych oraz globalne i polskie firmy, które działają wspólnie, i okazuje się, że często mają wspólne interesy, wspólne pomysły na to, w co zaangażować badaczy. Myślę, że ostatecznym beneficjentem tych działań będzie pacjent.

– Jako partner WHIH zależy nam przede wszystkim na współpracy i otwartym dialogu. Cieszymy się, że już teraz  jest to możliwe. Wszystkie zaangażowane strony – nauka, strona rządowa i biznes – są bardzo otwarte, żeby wypracowywać rozwiązania, które będą mieć faktyczne znaczenie dla gospodarki i ludzi – dodaje Marcin Bruszewski.

W skali globalnej Philips Healthcare jest liderem m.in. w obszarze nowych technologii medycznych, diagnostyki obrazowej oraz nowoczesnej opieki zdrowotnej świadczonej poza murami szpitala czy innej placówki medycznej. Na zlecenie Philipsa przygotowywany jest także globalny raport Future Health Index, obejmujący również polski rynek, dostarczający każdego roku informacji na temat wyzwań i problemów w sektorze ochrony zdrowia. To pierwsza firma z sektora medtech, która dołączyła do Warsaw Health Innovation Hub.

– Jeśli chodzi o warunki uczestnictwa w WHIH, przyjęliśmy, że muszą to być firmy, które są przyjaciółmi polskiej gospodarki, czyli takie, które w Polsce odprowadzają podatki i zatrudniają pracowników, które uczestniczą w budowaniu polskiego potencjału gospodarczego. Nie zgadzamy się na to, aby były to firmy, które utrzymują tutaj jednego czy dwóch swoich foreign officers, ale uciekają gdzieś za granicę. Chcemy, żeby to był kapitał, który w jakiś sposób w polskiej gospodarce uczestniczy – dodaje prezes ABM.

Stay connected

20,831FaniLubię
2,506ObserwującyObserwuj
0SubskrybującySubskrybuj
- Advertisement -

Latest article

Polski samochód wodorowy wyjedzie na ulice przed 2030 rokiem. Najbliższy rok będzie poświęcony projektowaniu...

Wodór coraz częściej jest wymieniany jako paliwo przyszłości i szansa na zmniejszenie emisyjności w motoryzacji, nieograniczanej niedoskonałościami ogniw litowo-jonowych. Obecnie na rynku jest sprzedawanych kilka modeli samochodów osobowych napędzanych wodorem. Do tej stawki jeszcze w tej dekadzie chce dołączyć polski start-up ze swoim modelem. Na razie znany jest wstępny projekt auta, a trwają prace nad platformą jezdną. Ampere Life pracuje także nad systemem tankowania takich pojazdów.

To, na czym będziemy się skupiać w tym roku, to są prace nad platformą jezdną. Zbudowanie takiej platformy zajmuje trochę czasu. Rok 2022, a nawet początek 2023, to jest platforma jezdna, którą będziemy chcieli później zaprezentować, jak nasz samochód będzie działał. To nie będzie jeżdżąca platforma jezdna jeszcze jako sam silnik, tylko bardziej wizja zastosowania naszej technologii – informuje w rozmowie z agencją Newseria Innowacje Michał Jędrzejewski, prezes i założyciel Ampere Life.

Polski start-up w ubiegłym roku zaprezentował wizję swojego samochodu wodorowego. Ma to być SUV o zasięgu wynoszącym od 800 do 1 tys. km.

– Planowany wyjazd na ulice jest w granicach 2030 roku, ale na to musi się złożyć trochę więcej czynników niż sam pojazd, bo musi zostać stworzona infrastruktura tankowania tego typu pojazdów – zapowiada Michał Jędrzejewski.

Dlatego jednocześnie start-up pracuje też nad zautomatyzowanymi stacjami tankowania wodoru. Jak podkreśla jego założyciel, samochód będzie ostatnim etapem całego projektu – najpierw pojawią się także stacje ładowania aut elektrycznych i aplikacja do zarządzania całym ekosystemem ładowania.

Naszym celem jest wytworzenie nowego rynku umożliwiającego nie tylko ładowanie samochodów, ale innego typu pojazdów, np. hulajnóg, rowerów. To, co chcemy dopiąć jak najszybciej, to są nasze stacje ładowania pojazdów elektrycznych. I tutaj już pojawili się pierwsi inwestorzy i mamy pierwsze zamówienia pod nasze stacje ładowania pojazdów elektrycznych – mówi założyciel Ampere Life. – To, w co teraz też mocno wchodzimy, a raczej będziemy wchodzić w niedługim czasie, to są carporty – nasze wiaty fotowoltaiczne, które też będą zasilały pojazdy elektryczne.

Technologia napędów wodorowych nie jest najnowszym odkryciem. Na rynku motoryzacyjnym są już dostępne auta osobowe z takim rodzajem paliwa, m.in. Toyota Mirai i Hyundai Nexo. Według danych Międzynarodowej Agencji Energii w 2020 roku na całym świecie jeździło nieco ponad 31 tys. aut z napędem wodorowym. Zdaniem ekspertów w najbliższych latach zmieni się podejście do wodoru i stanie się on paliwem przyszłości. Co ciekawe, według raportu TLP i SpotData firmy z branży transport, spedycja i logistyka większą nadzieję upatrują w paliwie wodorowym niż w bateriach elektrycznych. Widzą szybszą możliwość zastosowania na szerszą skalę rynkową pojazdów napędzanych wodorem. Wprawdzie podobny odsetek uważa, że pojazdy napędzane bateriami elektrycznymi (18 proc.) i pojazdy napędzane paliwem wodorowym (19 proc.) znajdą szerokie zastosowanie rynkowe w ciągu najbliższych pięciu lat, ale już znacznie więcej badanych, bo 41 proc., uważa, że pojazdy na wodór upowszechnią się w ciągu 5–15 lat. O samochodach elektrycznych sądzi tak mniej osób, bo 34 proc.

– Największą przeszkodą w rozwoju motoryzacji wodorowej jest sam wodór. Aby był ekologiczny, to musimy mówić o wodorze zielonym, wytwarzanym z odnawialnych źródeł energii, a na chwilę obecną niestety to jeszcze nie jest tania i łatwa metoda. Oprócz tego potrzebna jest infrastruktura tankowania tego typu pojazdów. W Polsce ona dopiero powstaje. A rzeczywiście rozwijamy motoryzację wodorową w komunikacji – wskazuje Michał Jędrzejewski. – W Niemczech powstało dość dużo stacji tankowania pojazdów z osobowych wodorowych, bo tu mówimy o ok. 100 stacjach tankowania. W Polsce dopiero ten temat zaczyna raczkować, ale koncerny paliwowe już zaczęły opracowywać metody tankowania samochodów osobowych.

Na zakupy autobusów napędzanych wodorem decyduje się coraz więcej samorządów. Przykładowo Górnośląsko-Zagłębiowska Metropolia uzyskała we wrześniu ubiegłego roku dotację z Narodowego Funduszu Ochrony Środowiska i Gospodarki Wodnej na zakup 20 takich pojazdów. Inwestycja pochłonie w sumie niemal 111 mln zł. W kwietniu, podczas Kongresu Technologii Miejskich, zarząd GZM zapowiedział jednak, że postępowanie przetargowe zostanie wszczęte dopiero po tym, jak uda się zapewnić kontrakt na dostawy paliwa wodorowego w odpowiedniej cenie.

– Przeszkody leżą w nienależytym rozwoju systemu tankowania wodoru, jak i wytworzenia zielonego wodoru. Jest to technologia droga, ale rozwojowa. My wychodzimy z założenia, że ten moment, kiedy będziemy wypuszczali nasz samochód wodorowy, nastąpi, kiedy ta technologia będzie już na tyle rozwinięta, że wytworzenie zielonego wodoru będzie łatwe i tanie. To jest tylko kwestia czasu. W chwili obecnej skupiamy się na wodorze niebieskim, szarym, którego produkcja jest jednak szkodliwa dla atmosfery, ale dążymy do zielonego wodoru – podkreśla założyciel Ampere Life.

Według analityków Market Research Future światowy rynek pojazdów napędzanych wodorowymi ogniwami paliwowymi do 2028 roku zwiększy swoje przychody niemal 40-krotnie: z 1,2 mld dol. w 2020 roku do niemal 47 mld dol.

Start-up Ampere Life był gościem jednej z ostatnich edycji Thursday Gathering, organizowanego przez Fundację Venture Café Warsaw. Spotkanie poświęcone było technologiom dedykowanym zrównoważonemu rozwojowi. Thursday Gathering to cykliczna impreza, która w każdy czwartek do warszawskiego Varso przy ul. Chmielnej przyciąga społeczność innowatorów, m.in. naukowców, start-upowców i inwestorów.

Warszawa dołącza do prestiżowego grona. Miasto wyrasta na jednego ze start-upowych liderów

Stolica Polski z każdym rokiem umacnia swoją pozycję jako ważny i prężnie rozwijający się hub dla start-upów. Na potencjał tutejszego rynku wpływają m.in. wykształcona kadra techniczna, coraz większe zainteresowanie ze strony międzynarodowych funduszy i rozwinięty ekosystem wspierania innowacji. Warszawa dołączyła właśnie do prestiżowego grona miast, które mają własną edycję przewodnika „Startup Guide”. Ma on ułatwić początkującym przedsiębiorcom, również z zagranicy, start na tutejszym rynku. – To niesamowite, że ktoś w Bostonie będzie mógł wziąć go do ręki i pomyśleć: „może warto byłoby zacząć robić coś ciekawego w Europie, właśnie w Warszawie” – mówi Aureliusz Górski, dyrektor wykonawczy Fundacji Venture Café Warsaw, współinicjator przewodnika.

 Warszawa to doskonałe miejsce dla start-upów. To szybki, dynamicznie rozwijający się ekosystem. Oferuje ogrom możliwości i wsparcia nie tylko ze strony rządu i korporacji, ale również instytucji takich jak Fundacja Venture Café, które zapewniają m.in. mentoring, warsztaty i możliwość pozyskiwania wiedzy od osób bardziej doświadczonych, aby móc rozwijać się dalej. Obok kwestii związanych z finansowaniem to jest bardzo ważne – mówi agencji Newseria Biznes Anna Weissensteiner, dyrektor generalna Startup Guide.

Polska jest liczącą się sceną start-upową. Zajmuje pierwsze miejsce w Europie Środkowo-Wschodniej pod względem liczby rund finansowania i drugie pod względem wartości inwestycji VC („Polish and CEE tech ecosystem outlook” PFR i Dealroom). Szybki rozwój rynku potwierdza też wolumen inwestycji w polskie start-upy, który w 2021 roku okazał się rekordowy i sięgnął 3,6 mld zł. To oznacza, że rodzime spółki zebrały w ubiegłym roku więcej kapitału niż łącznie przez cały 2019 i 2020 rok. Polska doczekała się także pierwszego tzw. jednorożca (start-upu technologicznego o wycenie przekraczającej 1 mld dol.), którym została platforma rezerwacyjna usług medycznych DocPlanner.

Z raportu przygotowanego przez Dealroom i Polski Fundusz Rozwoju wynika, że w ostatnich latach na polskim rynku rośnie nie tylko liczba młodych, innowacyjnych spółek, ale i aktywność międzynarodowych funduszy, które coraz częściej decydują się inwestować w rozwijające się przedsięwzięcia na wczesnym etapie rozwoju.

Według ekspertów na wysoki potencjał polskiego rynku wpływa m.in. wykształcona kadra techniczna. Polska weszła już do światowej czołówki pod względem liczby i kwalifikacji programistów, wyprzedzając m.in. Szwajcarię, Japonię, Tajwan czy Francję. Przekłada się to na fakt, że w porównaniu do całej Unii Europejskiej na polskim rynku jest znacznie większa koncentracja firm i start-upów tworzących komercyjne oprogramowanie. Kolejny plus to rozwinięty ekosytem wspierania innowacji, którego centralnym punktem jest Warszawa i Mazowsze. To właśnie tu skoncentrowana jest około 1/3 spośród ok. 2,9 tys. polskich start-upów (dane PFR i Startup Poland).

Warszawa jest na dobrej drodze, żeby stać się jednym z najważniejszych miast dla przedsiębiorców i innowatorów. Zadomowiły się tutaj wielkie potęgi technologiczne jak Google czy Microsoft. To miasto czeka świetlana przyszłość, może tu powstać międzynarodowy ekosystem start-upowy – mówi Anna Weissensteiner. – To miasto ma niesamowitego ducha przedsiębiorczości, a ludzie mają ogromną motywację, żeby budować coś nowego.

Centralną rolę Warszawy w polskim ekosystemie start-upowym potwierdza m.in. obecność założonego w 2015 roku Google for Startups, który w zrewitalizowanej wytwórni wódek Koneser w Warszawie otworzył swój kampus – miejsce dla początkujących przedsiębiorców, które ma im ułatwić rynkowy start. Tylko w ciągu pierwszych pięciu lat dołączyło do niego 1,8 tys. start-upów z Europy Środkowo-Wschodniej, przy czym zdecydowana większość (1,2 tys.) z Polski. Ważnym punktem na start-upowej mapie stolicy jest też działająca od trzech lat Fundacja Venture Café. To część globalnej sieci utworzonej przez Kampus Innowacji – Cambridge Innovation Center (CIC), która ma swoje centra także w innych miastach na całym świecie, jak np. Boston, Miami, Rotterdam, Tokio czy Sydney.

Flagowym przedsięwzięciem Fundacji Venture Café jest cotygodniowy event networkingowy dla innowatorów – Thursday Gathering. Jego celem jest łączenie lokalnej społeczności start-upów, przedsiębiorców, naukowców, inwestorów etc. oraz umożliwienie im wymiany doświadczeń, pomysłów i nawiązania kontaktów. Wydarzenie odbywa się co czwartek o 17:00 w Varso Place przy ul. Chmielnej 73. W ubiegłym roku w ramach Thursday Gathering odbyło się 45 spotkań i blisko 350 sesji tematycznych prowadzonych przez ekspertów.

– Takie inicjatywy są dla start-upów nie do przecenienia, bo pomagają nawiązywać niezbędne relacje. W tej branży kluczowe jest to, kogo znamy, z kim nawiążemy kontakt, od kogo się uczymy i kto może nam pomóc. Po dwóch latach pandemii i lockdownów szczególnie ważne są takie miejsca, gdzie ludzie mogą się spotkać, wymieniać pomysłami i wiedzą – mówi dyrektor generalna Startup Guide.

W nadchodzącym roku Fundacja Venture Café zamierza się skupić na budowaniu międzynarodowej współpracy i platformy pomiędzy Warszawą oraz innymi miastami, w których prężnie działają społeczności start-upowe. Narzędziem, które ma w tym pomóc, jest „Startup Guide Warsaw” – przewodnik po warszawskim ekosystemie innowacji.

– Przewodnik „Startup Guide” zawiera podstawowe informacje na temat Warszawy jako miasta dla start-upów. W zamyśle przypomina przewodnik Lonely Planet dla przedsiębiorców – wyjaśnia Anna Weissensteiner. – Zawiera m.in. podstawowe porady dotyczące tego, gdzie można nawiązać kontakty, jakie przestrzenie coworkingowe są tu dostępne, jakie programy są organizowane, jakich inwestorów można tu spotkać i co jest potrzebne, żeby uzyskać wsparcie.

Startup Guide przygotowuje przewodniki o lokalnych ekosystemach start-upowych w różnych miastach i krajach. Jak dotąd powstało już 40 takich publikacji dotyczących miast w Europie, Ameryce Północnej, Azji i na Bliskim Wschodzie. Warszawa dołączyła do tego prestiżowego grona po trzech latach starań.

W zamyśle „Startup Guide Warsaw” ma ułatwić początkującym przedsiębiorcom – również z zagranicy – start na tutejszym rynku. Każdego roku Polskę odwiedza bowiem ok. 80 mln ludzi, z których nawet 20 proc. może być zainteresowanych współpracą w obszarze innowacji – wynika z „Impact Report 2021”, wydanego w tym roku przez Fundację Venture Café.

Ten przewodnik jest sprzedawany przez internet i dostępny w ok. 120 najlepszych księgarniach na całym świecie. To niesamowite, że ktoś odwiedzający Boston będzie mógł wziąć go do ręki i pomyśleć: „o fajnie, może warto byłoby zacząć robić coś ciekawego w Europie, właśnie w Warszawie”. Ta publikacja ma zwiększać świadomość, pokazać, że działa tu ekosystem, na który warto zwracać uwagę – mówi Aureliusz Górski, dyrektor wykonawczy Venture Café Warsaw.

Oprócz informacji dotyczących funduszy, inwestorów, przestrzeni coworkingowych czy programów akceleracyjnych w warszawskiej edycji przewodnika „Startup Guide” można znaleźć też przykłady wyróżniających się, innowacyjnych spółek oraz dowiedzieć się, jak wyglądały ich początki i droga do sukcesu.

– Można będzie się zapoznać z niemałą liczbą inspirujących historii. Przewodnik zawiera rozmowy z lokalnymi przedsiębiorcami, którzy dzielą się swoim doświadczeniem i mówią o wyzwaniach, które musieli pokonać – mówi Anna Weissensteiner. – Startup Guide” ma na celu zachęcanie ludzi do tworzenia własnych biznesów, rozpoczynania działalności i czerpania inspiracji od tych, którzy już osiągnęli w Warszawie sukces.

„Startup Guide Warsaw” powstał przy wsparciu Visy, Google for Startups, PFR, Santander Bank Polska, InnoEnergy i Miasta Stołecznego Warszawy. Przewodnik jest dostępny zarówno w wersji drukowanej, jak i cyfrowej.

Coraz bliżej pojawienia się w pełni autonomicznych aut na drogach. Sztuczna inteligencja już teraz...

– Sam system jazdy autonomicznej od strony technologicznej będzie gotowy pewnie w perspektywie najbliższych dwóch lat – prognozuje dr Maciej Kawecki, Digital EU Ambassador i prezes Instytutu Lema. Znacznie dłużej zajmie nam jednak dopuszczenie autonomii pod względem legislacyjnym. Już dziś jednak sztuczna inteligencja, której rozwój jest warunkiem wprowadzenia pojazdów autonomicznych, znajduje w motoryzacji coraz więcej zastosowań. Pomaga m.in. monitorować poziom zmęczenia kierowcy i zapobiegać rozproszeniu jego uwagi, które może skutkować wypadkiem na drodze. Aplikacja stworzona w tym celu przez licealistę z Polski została niedawno wyróżniona w globalnym konkursie AI Global Impact Festival, organizowanym przez Intela.

Obok nadmiernej prędkości, spożycia alkoholu i nieprawidłowych manewrów zmęczenie i rozproszenie uwagi kierowcy jest częstą przyczyną kolizji na drodze. Z danych Komendy Głównej Policji wynika, że w ubiegłym roku zmęczenie albo zaśnięcie za kierownicą doprowadziło w Polsce do 538 wypadków, w których zginęły 92 osoby, a 745 zostało rannych. Skalę tego problemu pomagają ograniczyć sztuczna inteligencja i algorytmy machine learningu.

– Podczas wielogodzinnej jazdy, kiedy jesteśmy przemęczeni, powoli zamykają nam się powieki, zapominamy, że jesteśmy na drodze i możemy spowodować wypadek. Mój program podejmuje ten problem, jakim jest zmęczenie, wykrywa też, w jak dużym stresie żyjemy – mówi agencji Newseria Biznes Maksymilian Paczyński, laureat w globalnym konkursie Intela dotyczącym sztucznej inteligencji.

Kamery i czujniki monitorujące kierowcę, zainstalowane w kabinie samochodu, pozwalają na interwencję w przypadku, kiedy nie reaguje on na sygnały ostrzegawcze, a jego zachowanie za kierownicą zwiększa ryzyko wypadku. Taką właśnie aplikację monitorującą zachowanie kierowcy stworzył 18-letni licealista Maksymilian Paczyński, czym zapewnił sobie wyróżnienie w globalnym konkursie Intel AI Global Impact Festival, który koncentruje się wokół zastosowań sztucznej inteligencji. Aplikacja analizuje twarz kierowcy w czasie rzeczywistym, aby rozpoznać podstawowe znaki zmęczenia: długie zamknięcie oczu, ziewanie bądź przechylanie głowy.

Mój program rozpoczyna działanie od pobrania rzeczywistego obrazu z kamery zamontowanej w pojeździe. Następnie, za pomocą algorytmów uczenia  maszynowego, w tym np. sieci neuronowych, które przypominają procesy zachodzące w ludzkim mózgu, rozpoznaje tzw. fazę mikrosnu. To pierwsza faza snu kierowcy, w której traci on tzw. focus powierzchni płaskiej, wchodzi w stan zmęczenia i zaczyna odpływać od tego, co się dzieje na ulicy – wyjaśnia Maksymilian Paczyński, który był gościem debaty w ramach Volvo Talks Live.

Takie systemy wykrywające zmęczenie bądź rozproszenie uwagi kierowcy od kilku lat rozwija w swoich samochodach Volvo.

Dla Volvo bezpieczeństwo jest wszystkim. Kilka lat temu stwierdziliśmy, że najważniejszym elementem, który w tym celu trzeba koniecznie poprawić, jest elektronika. Samochód będzie najbezpieczniejszy nie wtedy, kiedy zrobimy grubszą blachę, ale wtedy, kiedy znacząco zmniejszy prędkość przed kolizją, a najlepiej jeśli w ogóle uniknie zderzenia. Właśnie temu służy technologia, czujniki, kamery i radary LIDAR. To wymaga ogromnego rozwoju technologii ujętej całościowo, bo nie chodzi tylko o to, żeby samochód coś widział wokół siebie, ale żeby potem ogromna ilość danych trafiała do komputerów. Nad tym musi czuwać sztuczna inteligencja, która uczy się tych danych, uczy się scenariuszy drogowych i potrafi coraz lepiej reagować, żeby ten samochód był coraz bezpieczniejszy – mówi Stanisław Dojs, rzecznik prasowy Volvo Car Poland.

– Sztuczna inteligencja jest m.in. częścią systemu City Safety, który służy do rozpoznawania obiektów na drodze. Już teraz nasze samochody są w stanie wykrywać ludzi, rowerzystów, duże zwierzęta czy inne samochody i podejmować działanie, aby zapobiec kolizji. Mamy też system Pilot Assist, który jest w stanie określić, gdzie znajduje się nasz pas jezdni, trzymać się tego pasa, utrzymywać odpowiedni odstęp od samochodu jadącego przed nami. Jest w stanie hamować, przyspieszać, skręcać – wymienia Wojciech Nowak, product manager Volvo.

W przyszłości wykorzystanie sztucznej inteligencji będzie o wiele szersze, ponieważ to ona umożliwi nam przejście do etapu jazdy autonomicznej.

Z pewną dozą autonomii w samochodach mamy do czynienia już w tej chwili. Jednak abyśmy mogli mówić o w pełni autonomicznej jeździe, muszą zostać spełnione trzy warunki – mówi dr Maciej Kawecki, Digital EU Ambassador, prezes Instytutu Lema i prorektor ds. innowacji Wyższej Szkoły Bankowej w Warszawie. – Pierwszy to sam system autonomii, czyli algorytmy, które muszą mieć bardzo dobrze zmapowaną daną przestrzeń, miasto i każdą ulicę. Przede wszystkim sama sieć neuronowa musi być niezwykle sprawna. To jest ten komponent, który będzie gotowy najszybciej, bo korporacje motoryzacyjne mają już gotowe sieci neuronowe.

Jak wskazuje, drugim warunkiem koniecznym do rozwoju w pełni autonomicznych pojazdów jest upowszechnienie sieci 5G, która pozwoli na szybką i niezakłóconą komunikację pomiędzy czujnikami, systemem i pojazdem. Kolejną ważną barierą w rozwoju autonomicznego transportu wciąż jest też brak odpowiednich regulacji, które pozwoliłyby bezpiecznie dopuścić takie pojazdy do ruchu drogowego.

Legislacja – czyli nałożenie na to wszystko ram prawnych, określenie zasad odpowiedzialności, zasad związanych z tworzeniem algorytmów, prototypów – zajmie najwięcej czasu. Dlatego w mojej ocenie sam system jazdy autonomicznej będzie gotowy pewnie w perspektywie najbliższych dwóch lat. W tym czasie korporacje będą gotowe do oferowania nam tego typu usług od strony technologicznej. Natomiast z punktu widzenia legislacji upowszechnienie się tej technologii będzie możliwe pewnie nie wcześniej niż za około osiem lat – prognozuje dr Maciej Kawecki.

– W przypadku autonomicznej jazdy odpowiedzialność będzie spoczywać nie na użytkowniku samochodu, ale na jego producencie. Dlatego musimy być całkowicie pewni, że takie rozwiązania są bezpieczne – dodaje Wojciech Nowak. 

W pełni autonomiczne pojazdy to kierunek, na który Volvo kładzie mocny nacisk w swojej strategii. Marka już kilka lat temu uruchomiła w szwedzkim mieście Göteborg pilotażowy projekt, w ramach którego 100 autonomicznych samochodów korzysta z dróg publicznych w codziennych warunkach. W przyszłości systemy jazdy autonomicznej mają być obok elektryfikacji głównym kierunkiem rozwoju samochodów Volvo.

Już w tym roku pokażemy nową platformę technologiczną Volvo, która będzie skupiała się wokół nowych czujników, w tym czujnika LIDAR zamontowanego na dachu naszego samochodu. Jednak aby przetworzyć tę ogromną ilość informacji, gromadzonych przez wszystkie kamery, radary, czujniki i LIDAR, będziemy potrzebowali bardzo mocnych procesorów, które dostarczy NVIDIA, wiodący producent kart graficznych, oraz odpowiednich algorytmów i sztucznej inteligencji, która będzie decydować, w jaki sposób samochód ma się poruszać na drogach. Przyszłość Volvo będzie zelektryfikowana i będzie też wprowadzona jazda w pełni autonomiczna – zapowiada product manager marki.

Jak podkreśla, w ciągu kolejnych trzech lat sprzedaż samochodów elektrycznych ma stanowić połowę całkowitej sprzedaży marki, a do 2030 roku – już 100 proc.