Rekordowe zainteresowanie Funduszami Norweskimi wśród polskich firm. Wsparcie otrzymują innowacyjne i ekologiczne projekty

– Realizujemy cztery programy w Rumunii, Bułgarii, Chorwacji i Grecji, ale skala programu w Polsce jest mniej więcej taka sama albo nawet większa niż w tych czterech pozostałych razem wziętych – mówi Magnar Ødelien z agencji Innovation Norway, która jest norweskim partnerem PARP we wdrażaniu programu „Rozwój przedsiębiorczości i innowacje” finansowanego z Funduszy Norweskich. – Ten program spotyka się z dużym zainteresowaniem polskich przedsiębiorców – dodaje Mikołaj Różycki, zastępca prezesa PARP. Obecnie dobiega końca nabór w po raz drugi ogłoszonym konkursie „Blue Growth – Innowacje w obszarze wód śródlądowych lub morskich”. Jeszcze tylko do 7 kwietnia br. o dofinansowanie mogą się ubiegać projekty dotyczące zrównoważonego rozwoju obszarów wodnych.

 Na tle innych możliwości finansowania projektów inwestycyjnych w firmach Fundusze Norweskie są relatywnie wysoko popularne. Konkurs w schemacie Blue Growth ogłaszamy po raz drugi, natomiast w trzech innych obszarach tematycznych (zielone technologie, technologie poprawiające jakość życia czy projekty realizowane przez firmy kobiece) środki norweskie zostały już przyznane i trwa realizacja projektów – mówi agencji Newseria Biznes Mikołaj Różycki.

Norwegia nie jest członkiem UE, jednak poprzez specjalny, bezzwrotny instrument finansowy – czyli właśnie Fundusze Norweskie – zapewnia swój wkład w tworzenie zielonej, nowoczesnej i zintegrowanej Europy. Mechanizm ten jest dostępny w państwach, które przystąpiły do UE po 2003 roku, czyli również w Polsce. W ramach tego instrumentu polskie mikro-, małe i średnie przedsiębiorstwa mogą się ubiegać o granty na realizację projektów związanych np. z ochroną środowiska, efektywnością energetyczną czy ograniczaniem nierówności społecznych i ekonomicznych.

– Dla polskich MŚP te fundusze to kolejna – poza środkami europejskimi czy krajowymi – możliwość, żeby się rozwijać, więc przedsiębiorcy są nimi żywo zainteresowani – mówi zastępca prezesa PARP.

Jak zauważa, na tle programów unijnych Fundusze Norweskie wyróżniają wyspecjalizowane ścieżki tematyczne, a środki są dedykowane przedsiębiorcom z wąskiej grupy ściśle określonych branż.

– Te fundusze bardzo dobrze pasowały do naszej koncepcji rozwoju, bo w naszych produktach też mamy dużo rozwiązań związanych z energooszczędnością, a to było jednym z podstawowych parametrów otrzymania dotacji – mówi Witold Levén, jeden z beneficjentów, prezes firmy Leven Group, specjalizującej się w rozwiązaniach i specjalistycznych urządzeniach dla branży gastronomicznej.

Kończony przez spółkę projekt Green Growth został sfinansowany ze środków norweskich na lata 20142021. Obejmował on budowę nowoczesnej hali produkcyjno-magazynowej wraz z panelami fotowoltaicznymi i innymi energooszczędnymi rozwiązaniami.

Stwierdziliśmy, że potrzebujemy w naszych okapach nowych rozwiązań i jednym z wariantów dojścia do tego celu było pozyskanie dotacji, żeby można to było lepiej sfinansować, niż sami byśmy to zrobili. Dotację wykorzystaliśmy na budowę nowej hali i maszyny do produkcji nowych rozwiązań. Mamy tu także zainstalowane pompy ciepła i fotowoltaikę – wymienia Witold Levén.

Przyznaliśmy dofinansowanie ponad 180 projektom na kwotę prawie 95 mln euro. W tym momencie minęliśmy półmetek, bo ponad 60 proc. z tych projektów już ma podpisane umowy i jest realizowanych. Konkurs po raz pierwszy ogłosiliśmy w 2019 roku, a w maju 2020 roku był termin składania wniosków. Nasze oczekiwania zupełnie minęły się z rzeczywistością, ponieważ zainteresowanie było ponad trzykrotnie większe niż budżet, jakim dysponowaliśmy wtedy. Teraz mamy już zwiększony budżet, właśnie dlatego że było bardzo dużo dobrych projektów, które były na liście rezerwowej – wyjaśnia Monika Karwat-Bury, ekspertka w Departamencie Wdrożeń Innowacji w Przedsiębiorstwach w PARP. – Natomiast z niektórych programów zostały nam oszczędności i z nich uruchomiliśmy kolejny konkurs.

Dodatkowym konkursem jest prowadzony właśnie nabór do „Blue Growth – innowacje w obszarze wód śródlądowych lub morskich”. O dofinansowanie – wynoszące od 200 tys. do nawet 2 mln euro – mogą się ubiegać projekty dotyczące zrównoważonego rozwoju obszarów wodnych, ekologii i turystyki. Środki otrzymane w konkursie Blue Growth firmy będą mogły przeznaczyć na inwestycje, np. na zakup maszyn, roboty budowlane, eksperymentalne prace rozwojowe albo usługi doradcze. O wsparcie mogą się ubiegać mikro-, mali i średni przedsiębiorcy zarejestrowani na terenie Polski, a wnioski można składać jeszcze do 7 kwietnia br., za pośrednictwem specjalnej aplikacji dostępnej na stronie PARP.

– Polska Agencja Rozwoju Przedsiębiorczości jest operatorem Funduszy Norweskich po raz pierwszy i jesteśmy wdzięczni za zaufanie, jakim obdarzyła nas Norwegia jako kraj darczyńcy – mówi Monika Karwat-Bury.

– Pracujemy z PARP już od kilku lat i w porównaniu z innymi programami, które organizujemy, ta współpraca układa się naprawdę dobrze – mówi Magnar Ødelien, Programme Director EEA Norway Grants w Innovation Norway. – Realizujemy jeszcze cztery takie programy w Rumunii, Bułgarii, Chorwacji i Grecji, ale jego skala w Polsce jest mniej więcej taka sama albo nawet większa niż tych czterech programów razem wziętych. Główna różnica pomiędzy Polską a przynajmniej częścią pozostałych państw realizujących podobne programy polega na tym, że polskie firmy są bardziej zaawansowane, mają bardziej zbliżony charakter do tych z północnej części Europy i często są po prostu lepiej rozwinięte niż w innych krajach.

Co istotne, jednym z głównych celów Funduszy Norweskich jest też stymulowanie współpracy pomiędzy przedsiębiorstwami z Polski i Norwegii. Dlatego firmy, które zgłaszają się po granty w ramach tego instrumentu, otrzymują możliwość budowania partnerstwa z norweskimi firmami i wejścia na tamtejszy rynek.

– Te stosunki dwustronne są ważnym elementem Norweskiego Mechanizmu Finansowego. Polskie MŚP współpracują z norweskimi partnerami, co przekłada się na obopólne korzyści. Tworzą coś wspólnie, współpracują, uczą się od siebie nawzajem, dzielą się wiedzą i technologią oraz zdobywają doświadczenie w zakresie współpracy międzynarodowej i na rynku wewnętrznym – mówi Margrethe Asserson, Programme Manager w Financial Mechanism Office.

W ramach Funduszy Norweskich na realizację programów w państwach UE w latach 20142021 przewidziano 1,25 mld euro.


d

Obiekty biurowe coraz bardziej innowacyjne. Królują rozwiązania proekologiczne i ułatwienia dla pracowników

Inteligentne rozwiązania będą coraz mocniej widoczne w powierzchniach biurowych. Różnego typu aplikacje, systemy i sieci sensorów oraz algorytmy przetwarzające zbierane dane pozwalają łatwo zarządzać nie tylko poszczególnymi pomieszczeniami czy biurami, ale i całymi budynkami. Bardzo często te ułatwienia są nakierowane na wsparcie funkcjonowania pracowników w przestrzeni biurowej, ale mocnym trendem jest również wykorzystanie rozwiązań proekologicznych. Pandemia COVID-19 wymusza na deweloperach i najemcach inwestycje w kolejne innowacyjne funkcjonalności.

Coraz więcej firm decyduje się na wynajęcie powierzchni biurowych w nowoczesnych budynkach. Często są to biurowce zwane inteligentnymi. Za pomocą setek, a nawet tysięcy czujników wpiętych w systemy komputerowe kontrolują  zużycie prądu, wody, nawiewy, klimatyzację czy dostęp do pomieszczeń i garaży. Deweloperzy stosują coraz bardziej  nowoczesne rozwiązania.

– Różnego typu technologie pomagają w utrzymaniu i zarządzaniu nie tylko powierzchnią biurową najemcy, lecz także całym budynkiem – mówi agencji Newseria Biznes Karol Wyka, dyrektor ds. wynajmu HB Reavis Poland, spółki zarządzającej biurami m.in. w warszawskich obiektach Varso Place, Forest czy West Station I–II.

Nowoczesne rozwiązania to nie tylko sposób na efektywniejsze zarządzanie biurowcami, ale przede wszystkim udogodnienia dla pracujących w nich ludzi. Każdy pracownik znajdujący się w biurowcu może np. pobrać aplikację, dzięki której dowie się, co się dzieje w innym miejscu w biurze, zamówi jedzenie do swojej firmy z lokali w budynku czy wyśle zapraszający kod QR, który jego goście będą mogli wykorzystać do wejścia zamiast plastikowej karty.

– Dzięki telefonowi pracownik jest w stanie otwierać drzwi, przywołać windę czy też wjeżdżać do garażu. Nie musimy mieć przy sobie karty, większość rzeczy jesteśmy w stanie załatwić telefonem – tłumaczy Karol Wyka.

Stosowany przez HB Reavis system Symbiosy pozwala na analizę zachowań w miejscu pracy. Sensory stosowane w obiektach umożliwiają przykładowo liczenie osób wchodzących do biura i wychodzących z niego. W przypadku czytników kart sensorycznych można badać np. interakcje między danymi działami firmy, co na podstawie częstotliwości spotkań pokaże np., jak pracownicy działu sprzedaży współpracują z działem marketingu. Pomaga to także efektywniej wykorzystywać sale konferencyjne i planować spotkania.

– Niektóre sale są zajęte zawsze od rana do godziny 12.00 i może się wydawać, że jest ich za mało. Natomiast office manager, mając bazę wiedzy zbudowaną na danych z sensorów, jest w stanie lepiej zapanować nad pracą biura. W przypadku naszych budynków aplikacje są innowacją, która gości w większości z nich, a w szczególności w nowych obiektach – mówi dyrektor ds. wynajmu HB Reavis Poland.

Dane zbierane z sensorów pozwalają także wdrażać rozwiązania, działania, które pozytywnie wpływają na zdrowie pracowników i efektywność ich pracy.

– Symbiosy to zestaw sensorów, którym może być oplecione całe biuro i dzięki którym wiemy, że przykładowo w danej sali konferencyjnej jest zbyt duże stężenie dwutlenku węgla. Nie dziwi więc, że w takiej sali większość uczestników spotkania jest śpiąca. Sensor to wyłapuje i możemy albo przewietrzyć pomieszczenie, jeśli mamy uchylne okna, albo specjalny system wentylacji jest w stanie przepompować z innej części biura świeże powietrze – wyjaśnia Karol Wyka.

Jak podkreśla, gros wdrażanych w nowoczesnych biurowcach rozwiązań ma związek z ekologią i oszczędzaniem energii i wody. Ten aspekt jest coraz ważniejszy zarówno dla najemców, jak i deweloperów. Świadczy o tym chociażby popularność zielonych certyfikatów dla budynków (np. BREEAM czy LEED), a co za tym idzie projektowanie zeroemisyjnych biurowców naszpikowanych innowacjami.

– Wśród ciekawych rozwiązań innowacyjnych, które wpływają na ekologię, jest system odzyskiwania energii w windach – mówi dyrektor ds. wynajmu HB Reavis Poland. – Przy hamowaniu winda odzyskuje energię, którą może wykorzystać.

System odzyskiwania energii kinetycznej podczas hamowania (KERS) jest stosowany od wielu lat w bolidach Formuły 1.

– Kolekcjonowana jest woda z deszczu, woda tzw. brudna, która jest potem wykorzystywana do podlewania zielonych przestrzeni w budynkach – wymienia ekspert. – Również system BMS, Buliding Management System, który służy do zarządzania budynkiem, powinien być jak najnowszy i najbardziej innowacyjny. On również wpływa na tematy ekologiczne. Przykładowo system żaluzji, które są sterowane przez BMS, jest w stanie wygenerować oszczędności w zużyciu energii. Podobnie jak klimakontaktrony, czyli urządzenia, które przy otwieraniu okien czy rozszczelnieniu paneli wentylacyjnych wyłączają system klimatyzacji i wentylacji w danym pomieszczeniu.

Zdaniem eksperta przyszłość tego sektora rynku nieruchomości będzie się opierać na dalszym unowocześnianiu sposobów zarządzania przestrzenią.

Jeśli chce się podążać za wyznaczonymi trendami, trend innowacji jest bardzo istotny. Już projektując biura kilka lat temu, przewidzieliśmy, że tematy związane z ekologią, które w tej chwili są bardzo istotne, należy wprowadzić do aplikacji budynkowych – mówi Karol Wyka. – COVID-19 tylko wzmocnił ten trend.

Rośnie zagrożenie cyberatakami. Firmy zwiększają nakłady na cyfrową ochronę

Liczba ataków na sieci korporacyjne wzrosła w ubiegłym roku w porównaniu z rokiem poprzednim aż o połowę – wynika z danych Check Point Software. Z kolei raport Vecto wskazuje, że niemal 70 proc. polskich przedsiębiorstw w 2021 roku stwierdziło naruszenie bezpieczeństwa danych. To o 8 pkt proc. więcej niż rok wcześniej. Dominującym typem ataków pozostaje phishing. Zdaniem ekspertów odpowiedzią na działania hakerów powinno być wdrażanie koncepcji opartych na bardzo ograniczonym zaufaniu, zarówno wobec użytkowników urządzeń wewnątrz sieci firmowej, jak i pracujących w lokalizacjach wyniesionych, na przykład w ramach home office.

– Pandemia w wielu środowiskach przyspieszyła cyfryzację. Tempo, które zostało narzucone, spowodowało, że wiele systemów zostało przeniesionych do świata cyfrowego i aplikacji, które były wykorzystane do zachowania ciągłości działania biznesowego firm. Tempo działania jest często złym doradcą przy zachowywaniu standardów i dobrych praktyk cyberbezpieczeństwa – ocenia w rozmowie z agencją Newseria Innowacje Jędrzej Bieniasz, ekspert ds. cyberbezpieczeństwa w Zakładzie Cyberbezpieczeństwa Instytutu Telekomunikacji Politechniki Warszawskiej.

W przypadku przedsiębiorstw liczba ataków nasiliła się po przejściu w tryb pracy zdalnej. Zdaniem ekspertów problem leży jednak nie tyle w wyprowadzeniu urządzeń poza budynki korporacji, ile w nienależytym zabezpieczeniu sieci firmowych.

– Dobrze zrealizowany home office, czyli ogólnie systemy dostępu zdalnego, nie rozszczelniają sieci, bo jest to dzisiaj standard projektowania sieci. Trzeba sobie też zdawać sprawę, że sieci korporacyjne od dawna nie są ani przywiązane geograficznie, ani fizycznie do jednego miejsca, tylko są wielomiejscowe. Ponadto wiele firm wykorzystuje środowiska chmurowe, więc dostęp zdalny i zasoby zdalne to jest dzisiaj rzeczywistość działania wielu organizacji, czyli home office nie jest tutaj wyjątkiem. Wyzwaniem jest stosowanie dobrych praktyk. Jest wiele dobrych rozwiązań, które ten home office potrafią zabezpieczyć, i możemy tylko zachęcać firmy, żeby wdrażały te systemy – ocenia Jędrzej Bieniasz.

Inwestycja w ochronę wymaga jednak dokładnej analizy zagrożeń oraz systemu, aplikacji i sieci należących do firmy.

– Chodzi o to, by zrozumieć, co jest ich celem ochrony w cyberprzestrzeni. Trochę inaczej chronią się firmy, kiedy posiadają informacje wrażliwe, inaczej, kiedy istotą działania jest ochrona dostępności czy też w ogóle ciągłość działania firmy. Mając ten poziom uświadomienia, możemy dobierać środki różnego rodzaju związane z zarządzaniem, technologiami, szkoleniem pracowników. To powinno być dopasowane do poziomu aktualnego wdrożenia systemów cyberbezpieczeństwa i procesów – wyjaśnia ekspert Politechniki Warszawskiej.

Jak wskazuje raport Vecto „Cyberbezpieczeństwo w polskich firmach 2022”, w 2021 roku rynek ochrony przed cyfrowymi zagrożeniami wzrósł o 10 proc., a prognozy na ten przewidują dalsze wzmocnienie tego trendu. 83 proc. ankietowanych potwierdza, że ich firmy inwestują w rozwiązania zapewniające zachowanie ciągłości pracy i procesów. Cztery razy więcej niż w poprzedniej edycji badania wdraża dodatkowe zabezpieczenia dla pracujących zdalnie. Połowa wszystkich użytkowników komputerów służbowych przyznała, że sprzęt jest zabezpieczony programem antywirusowym, a na co 10. urządzeniu jest zainstalowane również rozwiązanie zapewniające automatyczny backup. Z haseł dostępu korzysta 29 proc. respondentów.

– Prym wiodą ataki od strony użytkowników, czyli wszelkiego rodzaju podstawione strony www czy aplikacje mobilne. Jeżeli już środowisko zostanie skompromitowane, mamy klasyczne wykradanie informacji. Bardzo popularne są też ataki typu ransomware, czyli zaszyfrowanie systemów w celu wykupienia kluczy odszyfrowujących. Z drugiej strony widzimy też popularność wyszukiwania przez atakujących systemów wystawionych do internetu: aplikacji, stron www, ale też np. systemów mailowych i obsługi poczty – wymienia Jędrzej Bieniasz.

Ofiarą ataku typu ransomware padła pod koniec lutego NVIDIA. Zhakowanie wewnętrznych serwerów poskutkowało kradzieżą 1 TB danych. Firma miała przez dwa dni problemy z pocztą e-mail pracowników. Jak podkreślają eksperci Vecto, nie istnieją rzetelne dane, które wskazywałyby średnią wartość okupu płaconego przez polskie firmy. Można jednak przyjąć, że wiele z nich nie ma oporów przed pertraktowaniem z przestępcami, bowiem 60 proc. badanych podmiotów potwierdziło, że byłoby skłonnych zapłacić okup za odzyskanie zaszyfrowanych lub skradzionych danych.

Z badania przeprowadzonego przez Hornetsecurity Group wynika, że co czwarta firma padła ofiarą naruszenia bezpieczeństwa poprzez zhakowanie poczty e-mail. Nawet 40 proc. wiadomości może być potencjalnym zagrożeniem cyberbezpieczeństwa, a ponad jedna trzecia naruszeń to ataki phishingowe. Hakerzy najczęściej podszywają się pod specjalistów HR lub IT i proszą pracowników o przekazanie danych dostępowych.

Raport Vecto wskazuje, że prawie 70 proc. rodzimych przedsiębiorstw w ubiegłym roku musiało się zmierzyć z różnymi formami ataków. Najwięcej osób ankietowanych wskazało, że ucierpiały na tym bazy kontrahentów i relacje z nimi (prawie 30 proc.), a także pojawiło się ryzyko utraty unikalnego know-how i własności intelektualnej (prawie 25 proc.), dlatego firmy coraz częściej decydują się na wdrażanie koncepcji Zero Trust, której głównym założeniem jest brak zaufania w przypadku dostępu do cyfrowych zasobów, zarówno wobec lokalizacji wyniesionych, jak i urządzeń i osób działających w strukturach siedziby. Standard ten obejmuje każdorazowe weryfikowanie tożsamości osoby i urządzenia, na przykład poprzez dwuskładnikowe uwierzytelnienie.

Branża IT walczy z energochłonnością. Dostawcy szukają sposobów na „zazielenienie” chmury i centrów danych

Jedynie 5 proc. firm z branży technologicznej w Polsce mierzy swój ślad węglowy, ale połowa zamierza to robić w kolejnych latach – wynika z badania InCredibles i INSPIRED. Presja na ograniczanie zużycia energii i emisji CO2 w sektorze IT ciągle rośnie, do czego przyczyniają się m.in. wymogi klientów i regulacje prawne UE związane z transformacją energetyczną. Poza tym rosnące ceny energii podnoszą koszty utrzymania infrastruktury IT, dlatego firmy szukają usług na zewnątrz i to u zielonych dostawców. Istotną rolę w procesie zazieleniania branży będzie odgrywać chmura i centra danych. 

 IT jest branżą energochłonną, ale pojawiają się w niej pewne innowacje, które pozwalają zastanowić się nad alternatywą np. dla serwerów generujących ślad węglowy. Z jednej strony jest to sposób, w jaki te serwery są zasilane, z drugiej – z jakich komponentów się składają oraz jak wygląda fizycznie serwerownia, bo myślimy o wielkim boisku pełnym komputerów, a może się okazać, że serwery mogą działać w specjalnych kapsułach pod wodą. Takie projekty w Microsofcie też robimy – mówi agencji Newseria Biznes Łukasz Foks, menedżer biznesu start-upowego w zespole Azure Microsoft.

Giganci upatrują w innowacjach nadziei na poprawę sytuacji. Microsoft testuje m.in. zasilanie centrum danych technologią wodorową i realizuje projekt Natick. Przewiduje on, że serwery w specjalnych tubach są umieszczane pod powierzchnią wody, zasilane odnawialną energią z fal morskich oraz chłodzone przez otaczającą je wodę. Takie rozwiązanie mogłoby w przyszłości znacznie obniżyć pobory energii data center, a przy okazji obniżyć koszty.

Projekt kapsułowych centrów danych, które znajdują się pod wodą, jest ciekawym przykładem, który pokazuje też wyzwania wynikające z prowadzenia tego typu biznesu, jakim jest chmura. Mówimy o chłodzeniu, dostępności pewnych rozwiązań sprzętowych, ich wymianie i serwisowaniu, o pewnych sygnałach, dzięki którym jesteśmy w stanie ocenić, czy ta infrastruktura działa w sposób pożądany – wyjaśnia ekspert Microsoftu.

Zrównoważony rozwój i dążenie do neutralności klimatycznej staje się koniecznością w każdym biznesie, bez względu na sektor. Nie omija to także IT. Jak wynika z lutowego raportu „Szanse i zagrożenia – odpowiedzialność społeczna i środowiskowa firm IT” INSPIRED oraz InCredibles, sektor technologiczny jest obecnie odpowiedzialny już za 4 proc. globalnej emisji gazów cieplarnianych. Według danych przytaczanych przez Beyond.pl pierwszą polską firmę, która dołączyła do europejskiego Paktu na rzecz neutralności klimatycznej centrów danych, w Europie przyśpieszona cyfryzacja sprawia, że do 2030 roku szacowane zużycie energii przez centra danych wzrośnie o ok. 18 proc. Mordor Intelligence szacuje, że w 2020 roku tylko w Stanach Zjednoczonych sektor centrów danych zużył nawet 139 mld kWh energii elektrycznej i wyemitował do atmosfery nawet 147 mln ton CO2.

Zużycie energii da się ograniczyć, ale najpierw należy obliczyć, jaki ślad węglowy faktycznie generujemy i ile energii używamy w kontekście rozwiązań, z których korzystamy. Wtedy, wędrując do chmury, należy się zastanowić, na ile ta konsumpcja prądu się zmieni – mówi Łukasz Foks. – Na poziomie naszej chmury Azure mamy opcję, która pozwala bardzo szybko wyliczyć ten ślad węglowy i każdy, kto z niej korzysta, za pomocą kilku kliknięć będzie w stanie przyrównać zużycie prądu w kontekście konkretnych usług w chmurze do tego, co faktycznie obsługuje pod dachem swojej serwerowni.

Badanie InCredibles wskazuje, że jedynie 5 proc. przedsiębiorstw z branży technologicznej w Polsce mierzy swój ślad węglowy. Połowa deklaruje, że zamierza to robić w kolejnych latach. Odpowiedzi badanych firm wskazują także, że większość z nich nie wytwarza ani nie kupuje energii z OZE lub nie wie, czy wykorzystuje zieloną energię w codziennym funkcjonowaniu. 90 proc. firm nie analizuje sposobu, w jaki ich oprogramowanie wpływa na zużycie energii.

Microsoft podejmuje wiele inicjatyw na rzecz zrównoważonego rozwoju. Ogłosiliśmy ambitny plan, który pokazuje kilka perspektyw tej neutralności, którą osiągnęliśmy w 2012 roku, ale do 2030 roku chcemy być carbon negative, a nawet wyczyścić tę emisję, którą wygenerowaliśmy do 2050 roku. Ta innowacja się głównie dzieje na poziomie tego, jak planujemy nasze centra danych. Zastanawiamy się także, jaka emisja wynika z całego łańcucha dostaw obsługującego te centra danych, ale także jaką emisję generują nasi dostawcy. Rozmawiamy z nimi, żeby pokazać też pewne dobre praktyki, które mogą spowodować, że ta emisja zostanie obniżona – mówi ekspert Microsoftu.

Eksperci wskazują, że istotną rolę w „zazielenieniu” branży może odegrać cloud computing. Raport Microsoftu „The carbon benefits of cloud computing” z 2020 roku wskazuje, że chmura tego dostawcy jest od 22 do 93 proc. bardziej efektywna energetycznie od tradycyjnych centrów danych w poszczególnych firmach. Zasilanie zieloną energią czyni ją także od 72 do 98 proc. bardziej korzystną pod względem emisji CO2.

Przewagę ekologiczną chmury potwierdza także raport Accenture („The Green Behind the Cloud”). Szacuje on, że w ujęciu globalnym redukcja emisji dwutlenku węgla mogłaby wynieść nawet ok. 5,9 proc. całkowitej emisji, za którą odpowiedzialna jest branża IT, lub prawie 60 mln ton CO2 rocznie, co można porównać do usunięcia z dróg 22 mln samochodów. Już nawet częściowa migracja do chmury może zmniejszyć emisję dwutlenku węgla o ponad 84 proc. w porównaniu z tradycyjną infrastrukturą. Jeszcze większą redukcję, sięgającą nawet 98 proc., można osiągnąć dzięki projektowaniu aplikacji dedykowanych dla chmury. Analizy Accenture pokazały, że oszczędności wynikające z migracji do chmury mogą sięgać nawet ok. 30 proc. całkowitych kosztów posiadania własnej infrastruktury.

Większość ekspertów jest zgodna, że chmura będzie odgrywać istotną rolę w procesie transformacji energetycznej UE, z jednej strony umożliwiając dalszą cyfryzację, z drugiej – pomagając w redukcji emisji CO2. Stąd też popularne ostatnimi laty stało się pojęcie Green Cloud (ang. zielona chmura) odnoszące się do korzyści środowiskowych i finansowych, jakie mogą zapewnić usługi dostarczane przez internet z udziałem technologii cloud computingu.

Chmura z pewnością może być zielona. Należy jednak sprawdzić, jak faktycznie wyglądają operacje danego dostawcy chmury. Posiadanie serwerowni, która obsługuje wszystkie nasze obliczenia, generuje ślad węglowy, więc należy to porównać do tego, co oferuje dostawca chmury, zastanowić się, jakie metryki raportuje i czy faktycznie pomoże nam w obniżeniu emisji. Dziś wiele firm wskazuje, że za chwilę będą musiały raportować swoje emisje wynikające z operacji IT, dlatego dobrze by było, aby dostawca dostarczył klientowi końcowemu taki raport – mówi Łukasz Foks.

Presja na ograniczanie zużycia energii i emisji CO2 ciągle rośnie, do czego przyczyniają się m.in. wymogi klientów. Według danych CloudBolt, przytaczanych przez Beyond.pl, już w tej chwili 68 proc. dużych firm IT, wybierając dostawców usług data center i cloud, bierze pod uwagę ich podejście do środowiska i zrównoważonego rozwoju. Z kolei 79 proc. jest gotowych dopłacić do energii z OZE.

Kluczową rolę odgrywają jednak regulacje prawne UE związane z transformacją energetyczną oraz rosnące ceny surowców i uprawnień do emisji CO2 w unijnym systemie ETS. Dla firm oznaczają one, że utrzymanie infrastruktury IT będzie coraz droższe, wobec czego inwestycje w zielone źródła energii staną się niezbędne. Dlatego – jak wynika z raportu Mordor Intelligence („Green Data Central Market – Growth, Trends and Forecast 2020–2025”) – z każdym rokiem coraz większy będzie popyt na data center zasilane zieloną energią. Do 2025 roku ich rynek ma osiągnąć wartość 181,91 mld dol. (w porównaniu z 53,19 mld dol. w 2019 roku), co oznacza wzrost na poziomie 23 proc. rocznie w ciągu pięciu lat.

O tym, co biznes, w tym również branża IT, może zrobić dla planety, eksperci rozmawiali podczas debaty zorganizowanej podczas jednego z Thursday Gathering. To spotkania społeczności innowatorów, naukowców, start-upów, ekspertów, inwestorów i studentów, które są dobrą okazją do wymiany wiedzy, doświadczeń i omówienia najważniejszych trendów rynkowych. Organizatorem coczwartkowych eventów jest Fundacja Venture Café Warsaw i jej partnerzy.

Zastosowanie baterii wciąż ma wiele ograniczeń. Technologia opracowana na Politechnice Warszawskiej może ten rynek...

Do 2026 roku globalny rynek baterii ma już osiągnąć wartość blisko 174 mld dol. Napędza go m.in. segment elektroniki użytkowej, rozwój elektromobilności i rynku magazynowania energii. – Dziś wciąż jest jednak kilka ograniczeń, które blokują nam możliwości zastosowania baterii – zauważa dr hab. inż. Leszek Niedzicki z Politechniki Warszawskiej. Nierozwiązanym problemem pozostają m.in. technologie szybkiego ładowania baterii, ich ograniczenia temperaturowe, jak i pozyskiwanie surowców do ich produkcji. Dlatego też naukowcy stale pracują nad ich doskonaleniem. Duże osiągnięcia na tym polu ma zespół polskich badaczy z Politechniki Warszawskiej, który opracował m.in. nowy typ elektrolitu. To dopiero druga taka technologia na świecie i pierwsza w Europie, ale już korzysta z niej m.in. kilku producentów elektroniki.

 Właściwie jesteśmy już cywilizacją na baterie. Prawie wszystkie nowe technologie, które wchodzą na rynek, są na nich oparte. Używamy baterii wszędzie, np. jadąc autobusem czy samochodem elektrycznym, nasze słuchawki, myszki i laptopy też są na baterie. Są już też pomysły na pociągi, są już pierwsze promy na baterie i małe samolociki napędzane elektrycznie, więc ten trend będzie tylko rósł – mówi agencji Newseria Biznes dr hab. inż. Leszek Niedzicki, profesor na Wydziale Chemicznym Politechniki Warszawskiej.

Baterie są niezbędnym źródłem zasilania dla szerokiej gamy energochłonnych urządzeń elektronicznych w zastosowaniach konsumenckich i przemysłowych. Z chemicznych magazynów energii korzysta – bez kabli i emisji spalin – ogromna liczba urządzeń: od słuchawek bezprzewodowych, laptopów, przez samochody Tesli, po ogromnego Dreamlinera czy nawet sondy kosmiczne.

Z opublikowanego w styczniu br. raportu Global Industry Analysts („Battery – Global Market Trajectory & Analytics) wynika, że wartość globalnego rynku baterii – w 2021 roku szacowana na ok. 105,6 mld dol. – w ciągu kilku najbliższych lat znacząco wzrośnie, osiągając 173,7 mld dol. już w 2026 roku, przy średniorocznym tempie wzrostu wynoszącym 10,3 proc. Obecnie blisko 1/3 udziałów w tym rynku mają stosunkowo najpopularniejsze baterie litowo-jonowe i zdaniem analityków właśnie ten segment zanotuje największy wzrost (blisko 15 proc. rocznie), aby w 2027 roku osiągnąć wartość 118,4 mld dol.

Podobne analizy przytacza też MarketsandMarkets. Wynika z nich, że globalny rynek baterii litowo-jonowych wzrośnie z nieco ponad 41 mld dol. w 2021 roku do 116,6 mld dol. na koniec obecnej dekady. Ten rynkowy wzrost będzie zaś napędzany głównie przez segment elektroniki użytkowej i rozwój samochodów elektrycznych (eksperci szacują, że w latach 2020–2027 globalne zapotrzebowanie na baterie wzrośnie aż 10-krotnie wskutek rozwoju elektromobilności), a także energetykę odnawialną i rozwój rynku magazynowania energii.

Jest jednak kilka ograniczeń, które na dziś blokują nam rozwój bądź możliwości zastosowania baterii – zauważa dr hab. inż. Leszek Niedzicki.

Jak wskazuje, pierwszym z nich są ograniczenie temperaturowe, ponieważ przyjmuje się, że baterie działają w zakresie od ok. -10 do maksymalnie 60°C. Dlatego ich użytkowanie bywa problemem w zimie oraz w niektórych branżach i gorętszych regionach świata. Nierozwiązanym problemem wciąż pozostają też technologie szybkiego ładowania baterii oraz pozyskiwania surowców do ich produkcji. Dla przykładu Kongo odpowiada za niemal 70 proc. dostaw kobaltu. Tak duża zależność stwarza zarówno ekonomiczne, jak i geopolityczne ryzyka. Ma też przełożenie na cenę.

– To m.in. kobalt, którego większość jest wydobywana tylko w jednym kraju na świecie i w dodatku dość niestabilnym, bo w Kongo. Z drugiej strony mamy materiały takie jak grafit, który niby jest powszechnie dostępny, ale ten najlepszej jakości pochodzi z krajów takich jak Sri Lanka, Chiny i Australia, a to są kraje dalekie i możliwości wydobycia wcale nie są tak duże, jak by się wydawało – podkreśla profesor Politechniki Warszawskiej. – Są też problemy dotyczące zastosowania baterii, np. ze względu na zbyt małą gęstość energii, czyli zbyt małą pojemność albo zbyt małe możliwości ładowania. W niektórych zastosowaniach nadal nie możemy ich użyć, chociażby w samolotach elektrycznych, ponieważ te baterie ciągle są zbyt ciężkie.

Kilka lat temu wszystkie samoloty Dreamliner zostały „uziemione” właśnie ze względu na wadliwe magazyny prądu. Podobne problemy zdarzały się też w przypadku elektroniki konsumenckiej, czego przykładem były kilka lat temu chociażby wybuchające baterie w smartfonach. Dlatego też naukowcy stale pracują nad ich doskonaleniem.

Baterie przyszłości to w tej chwili dwa nurty i trudno powiedzieć, który wygra, bo to horyzont przynajmniej 10 lat. Pierwsza kwestia to możliwość zastosowania litu metalicznego w ogniwach, co bardzo poprawiłoby ich pojemność. Natomiast to niestety jeszcze chwilę potrwa. Możliwości szybkiego ładowania litem też są ograniczone i nie wyszliśmy jeszcze poza obszar prototypów. Jednak lit metaliczny to najprawdopodobniej przyszłość dla bardziej pojemnych ogniw. Podobnie jak zastosowanie siarki. I to jest ten drugi element, chodzi o pozbycie się kobaltu, niklu i innych droższych metali na rzecz dosyć taniej albo wręcz prawie odpadowej siarki – mówi dr hab. inż. Leszek Niedzicki. – Kolejny kierunek to ogniwa, które mają być jak najtańsze, i prawdopodobnie posłuży temu sód, być może z siarką, być może z powietrzem, albo ogniwa lit–powietrze. Wciąż nie jest jednak pewne, która z tych technologii wejdzie do użycia.

Poszukiwaniem nowych materiałów i technologii produkcji baterii zajmuje się również zespół polskich naukowców z Wydziału Chemicznego Politechniki Warszawskiej, kierowanego przez prof. Władysława Wieczorka. Polscy badacze już mają na tym polu olbrzymie osiągnięcia – technologie opracowane na Politechnice Warszawskiej są już wykorzystywane przez jeden z europejskich koncernów.

Nasze osiągnięcia obejmują przede wszystkim wdrożenie drugiej w historii technologii elektrolitów do baterii – mówi ekspert Wydziału Chemicznego Politechniki Warszawskiej. – Baterie litowo-jonowe składają się z trzech głównych komponentów: katody, anody i elektrolitu. Te elektrolity przez ostatnich 30 lat istnienia baterii litowo-jonowych na rynku, właściwie od momentu ich powstania, bazowały na jednej technologii. Wszystkie pozostałe komponenty się zmieniały, a elektrolit był niezmienny. Na Politechnice Warszawskiej opracowaliśmy nowy elektrolit, z użyciem mniej toksycznego materiału, który sprawia, że ogniwo działa dłużej i wolniej się starzeje. Bez problemu może też działać w dużo wyższych temperaturach, do 90°C. To dopiero druga taka technologia na świecie i pierwsza w Europie. Baterie z użyciem tego elektrolitu już są na rynku. Z powodu tajemnicy handlowej nie mogę podać konkretnych marek, ale droższe modele smartfonów są w nie już wyposażone.

Polskie innowacje na rynku baterii były głównym tematem marcowego Good Morning Science. To cykl comiesięcznych spotkań skupionych wokół innowacji w nauce organizowany w ramach inicjatywy klubu Trend House założonego przez Fundację Venture Café Warsaw. Misją klubu jest łączenie innowatorów i rozwiązywanie ważnych problemów społecznych, ekonomicznych i technologicznych. Trend House obecnie liczy ponad 240 członków, w tym osobistości ze świata nauki, biznesu i ekosystemu innowacji. Gospodarzem formatu jest znany popularyzator nauki i legenda telewizji Wiktor Niedzicki (członek klubu), który co miesiąc zaprasza swoich gości, by zaprezentowali najnowsze naukowe dokonania polskich zespołów badawczych.

 

Liczba badań klinicznych w Polsce bije rekordy. Wpływ na to mają kompetencje badaczy, niższe...

Polska to atrakcyjny kraj dla prowadzenia badań klinicznych. W 2021 roku zarejestrowano rekordową ich liczbę: 800 projektów komercyjnych i niekomercyjnych. Polska wraz z całym regionem Europy Środkowo-Wschodniej ma istotny udział w europejskim i światowym rynku badań klinicznych. Choć do tej pory dominował w nim segment komercyjnych projektów, to zaczyna przybywać również tych niekomercyjnych, zwłaszcza od kiedy powstała Agencja Badań Medycznych. Przygotowywana jest ustawa, która dopasuje polskie przepisy do europejskiego prawodawstwa i pozwoli na szerszą współpracę międzynarodową.

Jak wynika z raportu przygotowanego przez Związek Pracodawców Innowacyjnych Firm Farmaceutycznych INFARMA oraz Związek Pracodawców Firm Prowadzących Badania Kliniczne na Zlecenie POLCRO, w okresie ostatnich 25 lat Polska ugruntowała swoją pozycję jako jeden z potentatów na światowym rynku badań klinicznych. W 2019 roku zajęła 11. miejsce na świecie pod względem udziału w rynku iBPCT (innowacyjnych biofarmaceutycznych komercyjnych badań klinicznych).

Polska jest liderem, szczególnie w Europie Środkowej, ale i w całej Europie, i to bardzo cieszy. Widzimy potencjał gospodarczy, bo rynek jest wart co najmniej 6 mld zł, więc kontrybucja gospodarcza jest nie do przecenienia – mówi agencji Newseria Biznes dr hab. n. med. Radosław Sierpiński, prezes Agencji Badań Medycznych.

W latach 2014–2019 Polska odnotowała jeden z największych wzrostów udziału w rynku iBPCT na świecie, plasując się na piątym miejscu za Chinami, Hiszpanią, Koreą Południową i Tajwanem. Mimo pandemii w 2020 roku wartość ekonomiczna iBPCT przekroczyła 1,4 mld dol. (15 proc. wszystkich nakładów na R&D w Polsce), utworzono ok. 9 tys. miejsc pracy związanych z tym segmentem badań, a ponad 25 tys. polskich pacjentów uzyskało dostęp do nowych terapii eksperymentalnych.

Tym, co przyciąga sponsorów, którzy realizują międzynarodowe badania kliniczne w Polsce, jest przede wszystkim bardzo profesjonalna kadra. To jest bardzo istotne, że mamy badaczy, którzy naprawdę świetnie sobie z tym radzą – podkreśla dr hab. n. med. Radosław Sierpiński. – Jesteśmy również państwem o scentralizowanej ochronie zdrowia, więc możliwości włączania pacjentów w badania są wyraźnie większe niż w tych krajach, gdzie medycyna jest bardziej rozdrobniona.

Pozycję w światowej czołówce kraje CEE i Polska zawdzięczają takim czynnikom jak wyższa produktywność ośrodków w porównaniu z rynkami o ugruntowanej pozycji, niższe koszty pracy i rozpoczęcia badań oraz dobra reputacja w zakresie jakości.

 Takie instytucje jak Agencja Badań Medycznych pokazują, że ekosystem w Polsce jest przyjazny, że potrafimy i chcemy to robić, i mam nadzieję, że czekają nas tylko wzrosty – mówi prezes agencji.

Powstała w 2019 roku ABM jest państwowym podmiotem odpowiedzialnym za rozwój badań w dziedzinie nauk medycznych i nauk o zdrowiu. Realizuje jeden z pierwszych publicznych programów dotacyjnych z finansowaniem przeznaczonym na niekomercyjne badania kliniczne w Polsce, które są szansą dla polskich pacjentów na dostęp do najnowszych technologii. Są też okazją dla polskich naukowców na udział w światowych badaniach. W latach 2011–2019 odsetek projektów niekomercyjnych osiągał w Polsce niskie w porównaniu z Europą Zachodnią wartości pomiędzy 0,5 a 5 proc.

Jednym z projektów ABM było stworzenie wyspecjalizowanych Centrów Wsparcia Badań Klinicznych na zasadzie modelu usług wspólnych dla kompleksowego i systemowego wsparcia realizacji badań komercyjnych i niekomercyjnych. Ta inicjatywa ma na celu uatrakcyjnienie rynku badań klinicznych w Polsce, co przyczyni się do zwiększenia dostępu pacjentów do nowoczesnych, innowacyjnych terapii, częstszego wyboru przez sponsorów ośrodków badawczych, a także wzrostu liczby realizowanych badań. Nowo powstałe Centra pozwolą na lepszą koordynację badań klinicznych w Polsce.

W Polsce powstaje ponad 20 takich centrów, będą otwierane już niebawem co miesiąc. Z jednej strony zabezpieczamy w ten sposób jakość obsługi pacjenta i prowadzenie badań klinicznych, a z drugiej pokazujemy, że jesteśmy wartościowym partnerem na arenie międzynarodowej – informuje Radosław Sierpiński.

Ponadto Agencja Badań Medycznych przeznaczyła ponad 47 mln zł na stworzenie wyspecjalizowanych Onkologicznych Centrów Wsparcia Badań Klinicznych (OnkoCWBK), które dołączą do Polskiej Sieci Badań Klinicznych. Siedem rekomendowanych do dofinansowania ośrodków dołączy do już istniejących 16 placówek.

Onkologiczne Centra Wsparcia Badań Klinicznych to istotna inicjatywa, która pokazuje, że nie skupiamy się tylko na szpitalach akademickich, największych instytutach naukowo-badawczych. Chcemy również, żeby badania kliniczne stanowiły realny dostęp do innowacyjnych terapii onkologicznych i hematologicznych. Stąd też skłonienie się w kierunku regionalnych centrów onkologii, jak choćby na Dolnym Śląsku. To są miejsca, gdzie takie badania mogą się toczyć na wysokim poziomie. Gros pacjentów na przykład w Świętokrzyskiem bierze w nich udział i dzięki temu uzyskuje dostęp do nowoczesnej terapii, niejednokrotnie nie mając w zasięgu ośrodka akademickiego – informuje prezes ABM.

Jak wskazuje Deloitte, udział badań onkologicznych na późnych etapach wynosi ok. 35 proc. i pozostaje stabilny, mimo że ostatnio duży nacisk położono na walkę z koronawirusem.

Zgodnie z raportem INFARMY i POLCRO Polska zajmuje czołowe miejsce wśród krajów o wysokim poziomie dostępności badań klinicznych dla pacjentów, plasując się na 12. miejscu na świecie i ósmym miejscu w Europie, wyprzedzając Niemcy, Francję, Włochy i Wielką Brytanię. Z raportu Deloitte’a wynika, że w 2021 roku w Polsce przeprowadzono rekordową liczbę ponad 800 badań klinicznych. Jednak w zakresie dostępu do innowacyjnych terapii mamy jeszcze trochę do nadrobienia.

– Zwracam uwagę, że przez bardzo wiele lat szeroko pojęty przemysł biotechnologiczny czy biomedyczny nie był właściwie doinwestowany, nie było źródeł finansowania i bardzo często proces badawczy nie kończył się stosownym wdrożeniem na polskim rynku. W najbliższym czasie przed nami uchwała Rady Ministrów, czyli plan rozwoju biomedycyny na najbliższe 10 lat, gdzie faktycznie wsparci zostaną polscy badacze, zespoły badawcze, polskie innowacyjne firmy biotechnologiczne, żeby te innowacje pochodzące z Polski mogły tu pozostać dla polskich pacjentów – podkreśla Radosław Sierpiński.

Jak dodaje, trend wzrostowy rynku badań klinicznych łatwiej będzie utrzymać dzięki odpowiednim przepisom.

– Finiszujemy z projektem ustawy o badaniach klinicznych, która w najbliższych miesiącach będzie przedłożona w polskim parlamencie. Będzie dostosowywała, harmonizowała nasze prawodawstwo w tym zakresie z prawodawstwem europejskim – zauważa prezes ABM.

Wśród najważniejszych zmian, które wprowadzi ustawa, jest m.in. utworzenie Naczelnej Komisji Bioetycznej przy Agencji Badań Medycznych oraz Funduszu Kompensacyjnego przy Biurze Rzecznika Praw Pacjenta. Te instytucje mają spowodować, że system będzie jeszcze bardziej przyjazny dla pacjentów.

Nad ekologicznymi innowacjami pracuje coraz więcej firm. Takie technologie nie rozwiążą jednak problemu zmian...

Jak wynika z raportu opublikowanego przez Międzyrządowy Zespół ds. Zmian Klimatu (IPCC) działający przy ONZ, globalne ocieplenie postępuje zdecydowanie szybciej, niż się spodziewano. Współczesny świat liczy na wsparcie technologii w rozwiązaniu problemów klimatycznych, a europejskie start-upy działające w sektorze ekotech zyskują coraz większe finansowanie. Jednak w opinii Bartosza Majewskiego, dyrektora Centrum Przedsiębiorczości i Transferu Technologii Szkoły Głównej Handlowej w Warszawie, nie powinno się oczekiwać, że innowacje całkowicie rozwiążą problem postępujących zmian klimatycznych.

– Oczekiwanie, że innowacje środowiskowe rozwiążą wszystkie problemy związane ze zmianami klimatu, jest nieuprawnione, ale też niebezpieczne. Powoduje ono, że nasze działania bieżące możemy być może zawiesić, licząc, że pojawią się jakieś radykalne, przełomowe innowacje, które całkowicie rozwiążą problem, który próbujemy rozwiązać od kilkudziesięciu lat. A w tej chwili nawet nie myślimy do końca o rozwiązaniu, tylko o zatrzymaniu dalszego negatywnego oddziaływania na środowisko, tak żeby się nie pogłębiała sytuacja niekorzystna, a nie tak, żeby przywrócić stan, do którego dążymy – mówi agencji Newseria Biznes Bartosz Majewski.

Nad prośrodowiskowymi innowacjami pracuje wiele firm zarówno z branży energetycznej, jak i spoza niej, które stoją przed wyzwaniami związanymi z transformacją energetyczną. Na bardziej zielone zmieniają się przecież całe sektory, m.in. transport, motoryzacja czy produkcja.

– Działania na rzecz takich innowacji, po pierwsze, niosą korzyści dla poszczególnych podmiotów, ale z drugiej strony zupełnie inne poziomy finansowania. Jest coraz więcej funduszy, które inwestują w zielone przedsiębiorstwa. Inne, nie spełniając pewnych kryteriów, nie mają możliwości pozyskania dobrego finansowania oraz nie mogą współpracować z podmiotami, które są znacznie bardziej zaawansowane pod względem rozwiązań ekologicznych – mówi ekspert Centrum Przedsiębiorczości i Transferu Technologii SGH.

Sektor finansowy coraz częściej wycofuje się z finansowania i ubezpieczania projektów opartych na wydobyciu węgla. Coraz więcej mówi się także o śladzie węglowym poszczególnych produktów i na ten aspekt będzie zwracana coraz większa uwaga przy eksporcie na inne rynki. To jest także coraz istotniejsza kwestia dla samych konsumentów. Z badania PwC z września 2020 roku „Nowy obraz polskiego konsumenta. Postawy i zachowania Polaków w obliczu pandemii koronawirusa” wynika, że według deklaracji dla 92 proc. badanych ekologia i dbanie o środowisko jest ważne, nawet w trakcie pandemii. 75 proc. pomimo trudności występujących podczas pandemii zadeklarowało, że nadal zachowuje się w sposób odpowiedzialny, wspierający dbałość o środowisko.

Obszarem greentech i cleantech interesuje się coraz więcej start-upów, a one z kolei cieszą się coraz większą popularnością wśród inwestorów. Jak wynika z raportu PFR Ventures (startup.pfr.pl) „Startupy i ekologia. Jakie zielone rozwiązania tworzą polskie firmy technologiczne?”, od stycznia do czerwca 2021 roku globalne inwestycje w start-upy pracujące na rzecz poprawy klimatu wyniosły tyle samo, ile łącznie w ostatnich pięciu latach. Tego trendu nie widać jeszcze w Polsce, dlatego PFR Ventures chce pobudzić ten rynek poprzez inicjatywę PFR GreenHub FoF. To publiczny fundusz z budżetem 200 mln zł, który ma inwestować w spółki rozwijające technologiczne projekty z obszarów m.in. cleantech, OZE, transformacji i wydajności energetycznej, proekologicznej produkcji żywności czy wytwarzania produktów z kategorii moda.

– Start-up z definicji ma potencjał, więc jeżeli jest dobrym start-upem, to znaczy, że ma potencjał, żeby rozwiązać pewne kwestie w wymiarze globalnym. I to jest miara oceny. Polskie start-upy uczestniczą też w tym torcie światowym i widzimy zainteresowanie coraz większej liczby start-upów, że właśnie innowacje ekologiczne to może być bardzo dobry obszar związany z rozwojem biznesu – podkreśla Bartosz Majewski.

Przytaczane w raporcie PFR Ventures dane Dealroom, który mapuje tzw. start-upy pozytywnego wpływu, niemal połowa tego typu podmiotów w regionie Europy Środkowej i Wschodniej ma siedzibę właśnie w Polsce. Spośród 94 zarejestrowanych polskich start-upów pozytywnego wpływu 67 pracuje nad rozwiązaniami mającymi redukować efekty zmian klimatu.

Metawersum atrakcyjny dla biznesu i inwestorów. Jego rozwój mogą zatrzymać związane z nim zagrożenia

Od grudnia użytkownicy z USA i Kanady mogą korzystać z aplikacji Horizon Worlds, która jest platformą spotkań towarzyskich i rozrywki oraz stanowi zaczyn wirtualnego świata. To właśnie Meta (dawniej Facebook) chce być liderem w jego budowaniu. Według analityków przychody rynku usług i technologii związanych z metawersum w najbliższych latach powiększą się niemal osiemnastokrotnie. Coraz więcej firm upatruje w tym segmencie szans na biznesowy sukces. Przenoszą się do niego także inwestorzy. Pytanie jednak, czy nie zatrzymają ich związane z metawersum zagrożenia.

– Metawersum to jest pojęcie, które już istnieje od jakiegoś czasu i ta rozszerzona rzeczywistość, bo tak chyba w skrócie powinniśmy to zdefiniować, już funkcjonuje w różnych wymiarach. Różne firmy i osoby próbują ją ukształtować według swojego modelu, pomysłu – mówi agencji Newseria Innowacje Mirosław Maj z Fundacji Bezpieczna Cyberprzestrzeń. – To rozwiązanie wielu z nas może się wydawać innowacyjne i zupełnie nie wiemy jeszcze, na czym ono polega. Ale większość z nas albo słyszała, albo uczestniczyła już w tym świecie, np. przez znaną grę Pokémon Go. To jest jakaś formuła metawersum: mamy rozszerzoną rzeczywistość, w której nagle na tle czegoś, co naprawdę widzimy w otoczeniu, pojawiają się zupełnie nowe postacie i wchodzimy z nimi w interakcję. W ten sposób, chociażby przez wykorzystanie telefonu komórkowego, tę rzeczywistość wirtualną wplatamy w nasze życie. Takich projektów już jest sporo.

Jason Rubin, wiceprezes Meta Content, wyjaśniał, że metawersum ma być miejscem, w którym będzie się można poruszać między różnymi tożsamościami i trójwymiarowymi przestrzeniami społecznymi. Jak podkreśla Mirosław Maj, to przenikanie się świata realnego i wirtualnego zależy przede wszystkim od rozwoju technologii i urządzeń. Podstawą kształtowanego przez twórców Facebooka świata będzie moc obliczeniowa, jaką zapewnią superkomputery Meta, a także budowana właśnie platforma spotkań społecznych i rozrywki Horizon. Z drugiej strony pojawia się pytanie o gotowość użytkowników do zagłębienia się w metawersum.

– Myślę, że metawersum jest próbą ucieczki z tego świata w inny, który jest zbudowany trochę z zupełnie czegoś nowego, a trochę z tego, gdzie żyjemy. Natomiast pewnie ważniejsze jest pytanie, czym ma być metawersum, i nie wiem, czy ktokolwiek jest w stanie odpowiedzieć na to pytanie i czy na pewno nie balibyśmy się odpowiedzi – mówi ekspert Fundacji Bezpieczna Cyberprzestrzeń. – Czy my tam będziemy? Myślę, że nadal jednak rozmawiamy o tym, na ile jedną nogą stoimy w świecie rzeczywistym, a na ile drugą już w metawersum i jakie wiążą się z tym zagrożenia. W projektach metawersum być może również chodzi o to, żeby tę granicę zacierać i żeby nikt nie potrafił odpowiedzieć na takie pytanie.

Metawersum to przede wszystkim projekt biznesowy. Interesują się nim nie tylko największe platformy, lecz także mniejsi przedsiębiorcy, którzy mają zostać dopuszczeni do współtworzenia nowego cyfrowego świata.

– Widać, jak duże pieniądze bardzo często pojawiają się przy okazji projektów typu metawersum, wirtualnych działek, wirtualnych dzieł sztuki czy chociażby awatara swojej postaci lub zwierzęcia – mówi Mirosław Maj.

Tymczasem Meta (dawniej Facebook) ogłosiło, że buduje najszybszy na świecie superkomputer, który ma między innymi obsługiwać technicznie metawersum. Przedsięwzięcie ma być zrealizowane do połowy tego roku. Choć wirtualny świat ma być miejscem spotkań towarzyskich i rozrywki, to coraz więcej firm też chce w nim zaznaczyć swoją obecność. Działający od ponad 270 lat brytyjski dom aukcyjny Sotheby’s w ubiegłym roku uruchomił swój najnowszy punkt aukcyjny w Decentraland, zdecentralizowanej platformie wirtualnej rzeczywistości, opartej na technologii blockchain od Etherum. Ten dom aukcyjny jest wierną repliką londyńskiej siedziby.

– Metawersum już jest atrakcyjny dla biznesu. Niektóre firmy budują na tym swój biznes, inne obserwują i zastanawiają się, czy są w stanie go uniknąć, jeśli chcą być w awangardzie tych, którzy po prostu tworzą nowe rzeczy i zarabiają duże pieniądze. Myślę, że te firmy będą na pewno wchodziły w te biznesy i tylko pytanie, czy pieniądze tam zainwestowane będą się zwracały, czy znamy prawdziwe koszty funkcjonowania w metawersum. Możemy sobie przypomnieć różne inwestycje realizowane za duże pieniądze w Second Life. Jeżeli byśmy dzisiaj spojrzeli wstecz na to, na ile takie biznesy się sprawdziły i przyniosły korzyści, a na ile były tylko działalnością marketingową, to trudno nam powiedzieć – ocenia ekspert.

Podobnie trudno jest oceniać zasadność inwestycji przykładowo w wirtualne dzieła sztuki sprzedawane dziś za miliony dolarów.

– Jeżeli coś, co znamy z rozważań na temat kryptowalut, do nas przemawia, to takie myślenie w dużym stopniu możemy również włączyć w myślenie o tym, czy metawersum się uda, czy się nie uda. Dzisiaj niektórzy twierdzą i na pewno tak jest, że zarobili majątek na kryptowalutach, ale pewnie niewielu jest takich, którzy daliby większe niż 50-proc. prawdopodobieństwo, że ten majątek mogą utrzymać w takim zakresie przez następne kilka tygodni albo miesięcy – mówi Mirosław Maj.

Według Emergen Research światowy rynek metawersum do 2028 roku osiągnie wartość niemal 829 mld dol. Dla porównania w 2020 roku wycena sięgała niespełna 48 mld dol. To oznacza tempo wzrostu na poziomie 43 proc. rocznie.

Odkrycie polskich naukowców szansą dla pacjentów ze złośliwym glejakiem. Dzięki niemu dotychczas nieskuteczne leczenie...

Złośliwy glejak to najczęstszy nowotwór mózgu, w dodatku jeden z najszybciej się rozprzestrzeniających i odpornych na leczenie. Praktycznie żadna terapia nie jest skuteczna, bo guz odrasta i jest zwykle jeszcze bardziej złośliwy. Badania polskich naukowców z Instytutu Biologii Doświadczalnej im. M. Nenckiego PAN mogą to zmienić. Prof. Bożena Kamińska-Kaczmarek odkryła, w jaki sposób glejaki „oszukują” układ odpornościowy pacjenta i jak można ten mechanizm zablokować.

– Mamy wyspecjalizowane komórki, które pozwalałyby zabijać komórki rakowe. Natomiast niektóre nowotwory złośliwe oszukują układ odpornościowy, produkując cząsteczki, które przyciągają do nowotworu komórki odpornościowe i je przerabiają, „hakują”. Zamiast na miejscu aktywować odpowiedź przeciwnowotworową, nowotwór przejmuje kontrolę nad tymi komórkami i sprawia, że zaczynają one wspierać rozrost nowotworu. Jednocześnie wysyłają do organizmu sygnał, że układ odpornościowy nie powinien się wtrącać, nie powinien się aktywować, bo nasz mózg ma swoje własne komórki odpornościowe, które powinny pilnować porządku i dbać o to, żeby w mózgu wszystko działo się w sposób prawidłowy – wyjaśnia w rozmowie z agencją Newseria Innowacje prof. Bożena Kamińska-Kaczmarek z Instytutu Biologii Doświadczalnej im. M. Nenckiego PAN w Warszawie.

Udział tych komórek we wspieraniu rozwoju glejaka nie był wcześniej poznany. Zespół badawczy, którym kierowała prof. Bożena Kamińska-Kaczmarek, odkrył mechanizm, poprzez który glejak zmienia funkcję komórek odpornościowych w mózgu, i opisał cząsteczki, które ten typ nowotworu wykorzystuje w tym celu.

– Doprowadziło nas to do tego, że jeżeli wyłączymy te cząsteczki, to guz przestaje rosnąć. Przynajmniej w modelach zwierzęcych mamy już w tej chwili takie sytuacje, że jesteśmy w stanie zahamować rozrost nowotworu – dodaje badaczka. – W glejakach złośliwych praktycznie żadna terapia nie działa. Guz odrasta w ciągu kilku miesięcy i jest zwykle jeszcze bardziej złośliwy niż na początku. Nasza strategia polega na tym, żeby zablokować oddziaływania pomiędzy nowotworem a własnym otoczeniem. To wystarczy, żeby nagle te leki, które nie działały, zaczęły działać.

Złośliwy glejak ze względu na szybkie rozprzestrzenianie się w mózgu jest trudny do usunięcia chirurgicznego i bardzo odporny na standardową terapię, zwłaszcza w przypadku starszych pacjentów. Odkrycie może się okazać przełomowe w procesie opracowywania terapii celowanej. Dlatego zostało docenione przez Fundację na rzecz Nauki Polskiej, która pod koniec ubiegłego roku wyróżniła prof. Bożenę Kamińską-Kaczmarek nagrodą w obszarze nauk o życiu i o Ziemi.

Naukowcy z Instytutu Biologii Doświadczalnej PAN idą o krok dalej w badaniach nad nowotworami. Obecnie pracują nad platformą przeznaczoną do kompleksowej diagnostyki i spersonalizowanej terapii w neuroonkologii. Dzięki niej będzie można odczytać cały kod genetyczny nowotworu i precyzyjnie określić, jakie mutacje zaszły w komórkach.

– Wykrywamy tak zwane zmiany, które wskazują na przykład, że można zastosować konkretny lek. W tej chwili wszystkich pacjentów leczy się w podobny sposób, niezależnie od tego, jakie są zmiany. Ta platforma ma pokazać konkretną zmianę u konkretnego pacjenta. Wynikiem tego jest na przykład sugestia, że dany pacjent powinien być leczony nie tym, co się zwykle leczy, tylko zupełnie innym lekiem, o którym wiadomo, że jest stosowany w klinice. To jest główne zadanie tej platformy: zrozumieć po to, żeby dopasować leczenie do pacjenta – wskazuje prof. Bożena Kamińska-Kaczmarek.

Zastosowanie tej technologii nie musi się jednak ograniczać wyłącznie do neuroonkologii. Schematy diagnozowania najprawdopodobniej sprawdzą się również w chorobach o podłożu neurologicznym. Przykładem może być choroba Alzheimera.

– Nieprawidłowa aktywacja komórek odpornościowych w mózgu jest jednym z elementów kluczowych dla tej patologii. Jeżeli wiemy, w jaki sposób nowotwór przeprogramowuje te komórki, to być może możemy tę wiedzę wykorzystać też do przeprogramowania źle działających komórek w chorobie Alzheimera – przewiduje profesor.

Z danych Amerykańskiego Stowarzyszenia Chirurgów Neurologicznych wynika, że glejak jest najczęstszym złośliwym nowotworem mózgu. Odpowiada za niemal 48 proc. zachorowań. Zapadalność na glejaka wielkopostaciowego wynosi 3,21 na 100 tys. osób w populacji. Przeżywalność wynosi zaledwie 40 proc. w pierwszym roku po rozpoznaniu, a po kolejnym roku spada do 17 proc.

Interfejs mózg–komputer będzie testowany na ludziach jeszcze w tym roku. Technologii towarzyszą jednak wątpliwości...

Interfejsy łączące mózg z komputerem mają pomóc w leczeniu chorób psychicznych i neurologicznych. Elon Musk zaprezentował już wyniki testów takiego rozwiązania – Neuralink – na zwierzętach, teraz przymierza się do sprawdzenia jego działania na ludziach. Podobne technologie rozwijają również konkurencyjne firmy. Tymczasem wdrażaniu takich rozwiązań towarzyszy szereg wątpliwości etycznych, związanych chociażby z bezpieczeństwem danych wrażliwych. Zdaniem analityków rynek technologii interfejsów mózg–komputer czeka jednak w najbliższych latach dynamiczny rozwój. Do końca przyszłej dekady przychody tej branży mają się czterokrotnie zwiększyć.

– Elon Musk zaproponował już światu co najmniej kilka bardzo ciekawych rozwiązań, z których część widzimy, a część pozostaje w przestrzeni spekulacji. Projekt Neuralink jest rozwijany w tajemnicy i dotyczy interfejsu mózg–maszyna, czyli możliwości odczytywania myśli, ale też pracy bezpośrednio na mózgu poprzez wszczepienie chipa – informuje w rozmowie z agencją Newseria Innowacje dr hab. Aleksandra Przegalińska, prorektorka ds. współpracy z zagranicą i ESR w Akademii Leona Koźmińskiego.

W kwietniu Elon Musk zaprezentował pierwsze wyniki badań nad chipami Neuralink. Podczas pokazu wyników eksperymentu małpa z wszczepionymi po obu stronach mózgu chipami grała na komputerze w pingponga, używając do tego tylko umysłu. Zgodnie z zapowiedziami start-up ma rozpocząć testy na ludziach jeszcze w tym roku. Choć właściciel firmy informuje, że rozwiązanie może pomóc na przykład w leczeniu depresji, to ta technologia budzi duże kontrowersje.

– Jeżeli Elon Musk ma ambicje, żeby wprowadzić na rynek interfejs mózg–maszyna i obiecuje, że będzie to mieć różne zastosowania medyczne, to niech powie o tym, jakie będzie bezpieczeństwo danych, które takie urządzenie będzie zbierać, i czy my nie będziemy podlegać nadzorowi. Bardzo mocno wsłuchuję się w krytyczne głosy i myślę, że one pozwalają wprowadzić pewnego rodzaju balans między tym, że chcemy być innowacyjni, tworzyć nowe rozwiązania, a tym, że jednak musimy stać na straży pewnych wartości – podkreśla Aleksandra Przegalińska.

Tymczasem w lipcu zgodę Agencji ds. Żywności i Leków na prowadzenie testów na ludziach otrzymała firma konkurencyjna względem Neuralink. Synchron chce wszczepiać ludziom w mózgi urządzenie Stentrode. Ma ono pozwolić sparaliżowanym osobom obsługiwać urządzenia elektroniczne. Stentdrode ma być wszczepiane metodą mało inwazyjną – poprzez naczynia krwionośne. Firma zapowiada, że technologia stanie się dostępna w okresie najbliższych trzech–pięciu lat. Zarówno Neuralink, jak i Synchron chcą wykorzystywać swoje rozwiązania u osób chorych.

– Takie rozwiązania nie mają specjalnie zastosowań dla osób zdrowych. W zeszłym roku firma pokazała jednak w prototypowy sposób, jak to urządzenie mogłoby odpowiadać za to, żeby puszczać muzykę bezpośrednio do mózgu. To są komercyjne zastosowania, które dla niektórych mogą być istotne lub robić na nich duże wrażenie. Ja bym się ich jednak bardziej obawiała, niż widziała dla nich zastosowanie w przypadku osób zdrowych – ocenia naukowczyni.

Naukowcy z Wydziału Filozofii i Studiów Religijnych North Carolina State University opublikowali w ubiegłym roku wyniki przeglądu literatury przedmiotu w kwestii etycznych aspektów technologii interfejsów mózg–komputer (BCI). Najczęściej wymieniane w dyskusji akademickiej kwestie etyczne to m.in. bezpieczeństwo użytkownika i danych wrażliwych czy bilans ryzyka i korzyści. Kwestia bezpieczeństwa użytkownika koncentrowała się na jego potencjalnych bezpośrednich obrażeniach fizycznych, gdyby technologia miała zawieść. Etycy, którzy prowadzili badania na ten temat, dyskutowali również o nieznanych skutkach ubocznych BCI, w tym o psychicznych i fizycznych kosztach korzystania z technologii.

Eksperci rozmaitych dziedzin chcą znać jej szczegóły i myślę, że mają absolutną rację. Takie rozwiązania muszą być moim zdaniem efektem współpracy międzynarodowej i polem dialogu. To są zbyt poważne rzeczy, żeby je zostawić bardzo małej grupie. Liczyłabym na otwartość firmy Muska na to, żeby pokazywać, co właściwie się tam dzieje, i w pełni transparentnie działać. To są projekty, które mogą po prostu zmienić bieg ludzkości – przekonuje prorektorka ds. współpracy z zagranicą i ESR w Akademii Leona Koźmińskiego.

Według Allied Market Research światowy rynek technologii BCI osiągnął w 2020 roku wartość niemal 1,5 mld dol. Do 2030 roku przychody tej branży mają wzrosnąć do poziomu 5,5 mld dol.

Stay connected

20,831FaniLubię
2,506ObserwującyObserwuj
0SubskrybującySubskrybuj
- Advertisement -

Latest article

Liczba aniołów biznesu rośnie, ale wciąż jest ich za mało. 40 proc. z nich...

Polski rynek aniołów biznesu wciąż jest wielokrotnie mniejszy od tych z Europy Zachodniej, o Stanach Zjednoczonych nie wspominając, i stosunkowo młody. Jednak zainteresowanie tą formą pomnażania kapitału i dzielenia się doświadczeniem szybko rośnie. Największa obawa osób, które chcą dołączyć do grupy aniołów biznesu, dotyczy tego, czy będą umiały realistycznie ocenić szanse danego przedsięwzięcia. Platforma Polish Angels ma ułatwić przepływ know-how i finansowania między doświadczonymi inwestorami i pomysłodawcami start-upów.

 Aniołów biznesu jest w Polsce nadal poniżej tysiąca, ale uważamy, że to będzie się rozwijało i dojdziemy dość szybko do poziomu rynków zachodnich, rozwiniętych. Obserwujemy, że z jednej strony ten segment bardzo szybko się profesjonalizuje. Z drugiej strony widzimy bardzo duże zainteresowanie tą formą pracy ze start-upami na rynku. Coraz więcej nowych osób się zgłasza – mówi agencji informacyjnej Newsera Biznes Robert Ługowski, partner zarządzający Cobin Angels, 

Z raportu Cobin Angels „Jak inwestują najlepsi aniołowie biznesu w Polsce? Polski rynek inwestycji anielskich w 2021 roku” wynika, że jest on w Polsce wciąż na bardzo wczesnym etapie rozwoju. Aż 40 proc. badanych aniołów biznesu inwestuje zaledwie od trzech lat lub krócej, a ponad połowa aniołów biznesu (53 proc.) dokonało od jednej do sześciu inwestycji podczas całej swojej aktywności. Tylko 15 proc. aniołów biznesu to osoby doświadczone, które rozpoczęły alokowanie swoich środków 10 lat temu lub więcej.

Zdecydowana większość (73 proc.) na przestrzeni całej swojej aktywności „anielskiej” nie zrealizowała do tej pory jeszcze żadnego wyjścia z inwestycji, a 17 proc. dokonało pomiędzy jednym a trzema sprzedażami udziałów, co także jest dowodem na wczesny etap rozwoju rynku.

– Widzimy, że jedną z głównych barier dla osób, które chcą inwestować w start-upy, jest brak wiedzy, jak funkcjonuje ten segment, i jak skutecznie inwestować, czyli jak wybierać te najlepsze spółki, najbardziej perspektywiczne, przy możliwie niskim ryzyku – wyjaśnia Robert Ługowski. – Dlatego, aby rozwijać ten sektor w Polsce, zaproponowaliśmy platformę edukacyjną Polish Angels, której celem jest dostarczanie tej wiedzy. Tam są kursy online, ale przede wszystkim też wymiana doświadczeń pomiędzy aktywnymi aniołami biznesu. Wierzymy, że będzie to propozycja dla rynku, która spowoduje, że wiele osób będzie mogło na niego łatwiej wejść. Dzięki temu cały rynek szybciej urośnie i szybciej się sprofesjonalizuje.

Statystyczne anioły biznesu to osoby, które osiągnęły już pewien etap rozwoju zawodowego. Często są to menedżerowie średniego lub wyższego szczebla, ze średnich i większych firm bądź z międzynarodowych korporacji. Kolejną grupą są aktywni przedsiębiorcy, a jeszcze inną tacy, którzy sprzedali już swoje biznesy i skupiają się na wspieraniu młodych spółek technologicznych. Kwoty inwestycji mogą się zaczynać już od 50–100 tys. zł, często też zdarza się, że kilku inwestorów łączy siły i wspiera tę samą spółkę.

Średni roczny budżet inwestycyjny aniołów biznesu wynosi dla 63 proc. badanych do 450 tys. zł. Trzech na pięciu inwestorów od początku swojej działalności jako aniołowie biznesu nie przekroczyło kwoty 1,35 mln zł łącznych inwestycji.

 Start-up od aniołów biznesu otrzymuje oprócz środków finansowych bardzo dużo wsparcia i bardzo często rośnie znacznie szybciej, niż założyciele, osoby zarządzające, są w stanie budować swoją wiedzę. Połączenie z grupą doświadczonych osób pozwala im szybko transferować te doświadczenia, wiedzę, kontakty i po prostu przyspiesza rozwój ­– wyjaśnia partner zarządzający Cobin Angels. ­– Z kolei anioły biznesu oczywiście oczekują korzystnego zwrotu ze swoich inwestycji. Zwrotów nie mierzymy w procentach, tylko w wielokrotności pomnożonego kapitału. Przykładowo aniołowie, którzy zainwestowali w największy polski sukces, czyli w DocPlannera, liczą dzisiaj swoje zyski jako blisko dwustukrotne zwiększenie kwoty, którą zaangażowali na początku.

Istnieje niewielka grupa – ok. 10 proc. – doświadczonych inwestorów, którzy przeznaczyli na inwestycje w start-upy już po ponad 9 mln zł. To Super Angels, wśród których znajdują się m.in. Rafał Brzoska, Wiktor Namysł, Marian Owerko, Robert Lewandowski czy Tomasz Domogała.

Jednocześnie wielu aniołów biznesu podkreśla, że działalność ta jest dla nich formą inspiracji, spełnienia się, przejścia do kolejnego etapu rozwoju kariery i innowacyjności, przekazywania zdobytej wiedzy kolejnemu pokoleniu przedsiębiorców. Z kolei osobom pracującym na etacie w firmach oferuje to okazję do pokazania swojej innowacyjności lub może być sposobem na wyjście z etatu i dołączenie do takiego start-upu jako współwłaściciel.

Europejski czy amerykański rynek aniołów biznesu oczywiście jest znacznie bardziej dojrzały i liczniejszy niż w Polsce. W Stanach Zjednoczonych aniołów biznesu jest dwieście kilkadziesiąt do 300 tys. osób, w krajach Europy Zachodniej kilkanaście do 20–30 tys. per kraj – informuje Robert Ługowski. – W Polsce mamy ich poniżej tysiąca, więc widzimy tutaj jeszcze bardzo dużą przestrzeń do rozwoju. Uważamy, że powinno być co najmniej kilka tysięcy, powiedzmy 5–6 tys. aniołów biznesu w Polsce. Oczywiście również chodzi o to, żeby aniołowie biznesu działali coraz bardziej profesjonalnie i żeby ich aktywność rosła, a wraz z nią również liczba inwestycji.

Technologia coraz szybciej przeobraża rynek pracy. Staje się kluczowa nie tylko dla rozwoju kariery,...

Technologia już dziś jest częścią codziennego życia zawodowego dużej grupy pracowników, a w przyszłości jej udział będzie rósł. 65 proc. Polaków uważa, że kompetencje cyfrowe będą odgrywać coraz ważniejszą rolę na rynku pracy, a 60 proc. ocenia, że osobom biegłym w nowych technologiach będzie łatwiej o podwyżki i awanse – wynika z badań przeprowadzonych przez Grupę Pracuj. Cyfryzacja i zmiana modelu pracy na zdalny lub hybrydowy staje się także stałym elementem wellbeingu pracowniczego. Do korzystania z dobrodziejstw tej sytuacji skłonne są przede wszystkim młode osoby, które szukają pracy elastycznej, dopasowanej do ich stylu życia.

– Technologia diametralnie zmieniła rynek pracy i zmienia go dalej. Na pewno zamknięcie nas w domach, z komputerem, na czas pandemii COVID-19, spotykanie się poprzez ekrany bardzo mocno przyspieszyło ten rozwój – mówi agencji Newseria Biznes Małgorzata Ohme, psycholożka, dziennikarka, współtwórczyni aplikacji Mindgram.

W 2020 roku, wraz z wybuchem pandemii COVID-19, zaczęła się największa od czasów II wojny światowej transformacja umiejętności pożądanych na rynku pracy – pokazuje raport Manpower Group („Niedobór talentów”). W obliczu przyspieszającej rewolucji technologicznej firmy szukają pracowników dysponujących zarówno kompetencjami miękkimi, jak i zaawansowanymi umiejętnościami cyfrowymi. W tej kwestii Polacy są optymistami: z ubiegłorocznego raportu Pracuj.pl („Cyfrowa ewolucja kariery”) wynika, że 67 proc. pozytywnie ocenia swoją biegłość w korzystaniu z technologii w życiu zawodowym. Jednocześnie siedmiu na dziesięciu Polaków ogólnie pozytywnie ocenia wpływ rozwoju technologii na rynek pracy w ostatnich latach.

 Technologia to coś bardzo wspierającego, otwiera bardzo szerokie możliwości, np. to, że możemy dzisiaj pracować z każdego miejsca, sięgać po specjalistów z najdalszego zakątka świata, nie musimy się kierować dostępnością fizyczną – wymienia Małgorzata Ohme.

Big data, uczenie maszynowe, rozwiązania chmurowe, automatyzacja procesów, AI i postępująca robotyzacja w coraz większym stopniu wspierają biznes, a w kolejnych latach będą mieć też rosnące przełożenie na to, w jaki sposób pracownicy wykonują swoje obowiązki zawodowe. Już dziś dzięki rozwiązaniom chmurowym i mobilnym zespoły w firmach mają możliwość szybkiej i łatwej komunikacji. Pracownicy są też świadomi konieczności ciągłości podnoszenia swoich kompetencji cyfrowych: w badaniu Pracuj.pl 44 proc. Polaków oceniło, że w przyszłości zbyt niski ich poziom może być dla nich przeszkodą w szukaniu nowej pracy. Co istotne, większość (73 proc.) uważa też, że to pracodawcy powinni wspierać pracowników w nabywaniu nowych kompetencji cyfrowych.

Jak wynika z badań Manpower Group, średnio co trzecie przedsiębiorstwo w Polsce docelowo planuje połączenie pracy zdalnej z wykonywaniem zadań w siedzibie firmy. Natomiast wśród pracowników 43 proc. uważa, że jesteśmy świadkami końca ery, w której praca na etat była wykonywana w sztywnych ramach czasowych od godziny 9 do 17.

Są różne badania, które mówią o tym, czy efektywność pracowników się poprawiła, czy pogorszyła. Dużo się mówi o rosnącym wskaźniku wypalenia zawodowego. Często wiąże się go z tym, że byliśmy cały czas w formie zdalnej – mówi współtwórczyni aplikacji Mindgram.

Wśród innych minusów pracy zdalnej wymieniane są m.in. obniżenie efektywności komunikacji spowodowane brakiem spotkań twarzą w twarz, utracone więzi z kolegami z pracy. Z drugiej strony pozwoliła się ona pokazać pracownikom od bardziej spontanicznej, ale też bardziej domowej strony, nauczyła ich elastyczności, nieprzewidywalności i dystansu.

Jak podkreśla ekspertka, praca zdalna, która była pewnego rodzaju przymusem na początku pandemii, teraz stała się pożądaną opcją. Nie jest jednak powiedziane, że jest to rozwiązanie korzystne dla wszystkich.

– Najważniejsze jest to, żeby człowiek miał wybór. Czasem nam się wydaje, że w pracy zdalnej byłoby nam lepiej, ale potem okazuje się, że nie jesteśmy zbyt dobrze zorganizowani. Natomiast jeśli weźmiemy pod uwagę swoje zasoby i możliwości, może się okazać, że będziemy bardziej efektywni na Bali niż w Warszawie w WeWorku albo na odwrót. Trzeba mierzyć siły na zamiary. Ilu ludzi, tyle modeli pracy. I cudownie byłoby, żeby każdy miał możliwość wyboru – podkreśla Małgorzata Ohme.

Trend pracy zdalnej i rozwoju cyfryzacji jest dziś bardzo widoczny zwłaszcza wśród młodego pokolenia, które szuka elastycznych, dopasowanych do swojego stylu życia form zatrudnienia.

– To oni dzisiaj na rozmowach rekrutacyjnych pytają, czy mogą pracować z dowolnego miejsca – mówi psycholożka. – Uważam, że mają prawo o to pytać i ci, którzy są dobrymi ekspertami, mają prawo wymagać, żeby pracować w takich warunkach, które sprzyjają ich efektywności. Te warunki każdy sam powinien wobec siebie określić.

W raporcie Manpower Group eksperci wskazują, że w dobie dynamicznych zmian na rynku pracy pewne jest tylko jedno: pandemiczny kryzys powinien przygotować społeczeństwo na pracę przyszłości, która według prognoz będzie zdecydowanie bardziej elastyczna, różnorodna i nastawiona na dbanie o dobre samopoczucie pracowników.

– Technologia otworzyła nam cały obszar dbania o swój własny dobrostan. Jeszcze kilka lat temu nie mówiło się o tym, że powinniśmy wspierać pracowników, jeśli chodzi o ich wellbeing czy mental health. Wśród benefitów nie było opieki psychologicznej czy możliwości rozwoju. Dzisiaj, dzięki nowym technologiom, mamy platformy takie jak np. Mindgram, które zapewniają dostęp do najlepszych specjalistów, do webinarów, szkoleń, audioteki, podcastów, do różnych form prorozwojowych i samopomocowych – mówi Małgorzata Ohme.

O możliwościach, jakie technologia stwarza na rynku pracy, eksperci debatowali podczas jednego z ostatnich spotkań w ramach Thursday Gathering. To cykliczne eventy organizowane przez Fundację Venture Café Warsaw, które do Varso przy ulicy Chmielnej przyciągają szerokie grono ekspertów, firm, start-upów, inwestorów i naukowców.

Polityka Europejskiego Zielonego Ładu może się przyczynić do wzrostu zainteresowania kompostowaniem. Zachętą będą obniżki...

Udział kompostowania w procesie przetwarzania odpadów komunalnych wzrósł w Polsce w ostatnim roku do ponad 13 proc. Założenia Europejskiego Zielonego Ładu, zmierzające do ograniczenia zużycia nawozów i pestycydów, mogą wkrótce zwiększyć zainteresowanie kompostowaniem. Rośliny uprawiane w ziemi zasilanej kompostem są lepiej odżywione i odporniejsze na choroby, szkodniki czy zmiany temperatur. Tworzenie z odpadów kuchennych kompostu jest też dobrym sposobem na ograniczenie marnowania żywności. Zachęty ekonomiczne, takie jak obniżki opłat za odbiór śmieci, mogą być argumentem dla osób inwestujących w kompostowniki.

Kompostowanie w Polsce staje się coraz bardziej popularną metodą zagospodarowania różnego typu odpadów biodegradowalnych. Wpisuje się to w ogólną politykę Unii Europejskiej dotyczącą biogospodarki, czyli wykorzystywania wszystkich źródeł składników pokarmowych, ale również zabezpieczania energetycznego środowiska przyrodniczego. Węgiel jest głównym źródłem energii, nie tylko dla nas, ale również dla środowiska glebowego czy życia roślin i mikroorganizmów. Dopływ węgla jest bardzo ważnym elementem wzrostu i rozwoju roślin. Poza tym jest to pewien wymóg również polityki Unii Europejskiej, ponieważ każdy użytkownik gleby ma dbać o węgiel organiczny – informuje w rozmowie z agencją Newseria Innowacje prof. dr hab. Wojciech Stępień, pracownik Samodzielnego Zakładu Chemii Rolniczej i Środowiskowej w Szkole Głównej Gospodarstwa Wiejskiego w Warszawie.

Współczesne rolnictwo stało się skoncentrowane, przez co w gospodarstwach brakuje naturalnych nawozów pochodzących z upraw czy hodowli. Rozwiązaniem staje się produkcja kompostu, do której używa się wszelkiego rodzaju bioodpadów, również z gospodarstw domowych czy przetwórni. Kompost sprawia, że gleba jest żyźniejsza i wilgotniejsza, dzięki czemu rośliny są lepiej odżywione i zdrowo rosną.

Dbałość o biologię jest priorytetem. Powszechne jest wykorzystanie mikroorganizmów czy organizmów, które w glebie dzięki biomasie zwiększają swoją aktywność i pozwalają również lepiej wykorzystywać potencjał produkcyjny. Stąd kompostowanie staje się ważnym ogniwem biogospodarki. Oczywiście musimy tak przeprowadzać proces kompostowania, żeby on nie był szkodliwy dla środowiska. Głównie chodzi o czystość powietrza, ale również gleby, jeżeli wprowadzamy materię organiczną – dodaje prof. dr hab. Wojciech Stępień.

Kompostowanie może się sprawdzić zarówno w dużych, jak i małych gospodarstwach, nie tylko ekologicznych. Poza resztkami roślin pochodzącymi z ogrodu na kompost nadają się odpadki kuchenne (bez mięsa i kości), fusy z kawy i herbaty, bezzapachowe chusteczki higieniczne, niezadrukowany i pocięty papier, wytłoczki od jajek, zużyta ziemia z doniczek.

– Przykładowo w warzywniczych gospodarstwach, gdzie mamy bardzo dużo bogatych w składniki pokarmowe odpadów z marchwi, kapusty czy innych warzyw, właściwe ich zagospodarowanie poprzez kompostowanie jest jak najbardziej pożądanym, wskazanym i ważnym elementem właściwego gospodarowania składnikami pokarmowymi – mówi ekspert Szkoły Głównej Gospodarstwa Wiejskiego w Warszawie.

Jak wynika z poradnika Instytutu Ochrony Środowiska – Państwowego Instytutu Badawczego, kompost najlepiej przechowywać w zacienionym miejscu, w drewnianych skrzynkach lub specjalnych plastikowych termokompostownikach, które znacznie szybciej rozkładają materię organiczną. Nie można też zapominać o zapewnieniu dostępu do tlenu oraz nawadnianiu kompostu.

Do przyspieszenia procesu kompostowania wykorzystuje się dojrzały kompost lub specjalne szczepionki kompostowe zawierające bakterie tlenowe i inne mikroorganizmy glebowe. Można też wykorzystać większe organizmy, takie jak dżdżownice kalifornijskie. Ich znaczenie w użyźnianiu gleby dostrzegł już w XIX wieku Karol Darwin. Współcześnie na mniejszą skalę praca dżdżownic jest wykorzystywana w specjalnie przystosowanych kompostownikach. Produkcja wermikompostu przybrała też charakter przemysłowy. Według autorów raportu opublikowanego przez MENAFN światowy rynek tego nawozu wypracuje do 2025 roku przychody przekraczające 108 mln dol., podczas gdy w 2021 roku było to 70 mln dol.

– Są to bardzo aktywne mikroorganizmy, które dziennie przeprowadzają przez swój organizm tyle biomasy, ile ważą, czyli najczęściej 1 g. Przetwarzają materię organiczną w biohumus, który jest bardzo wartościowy. Śluz, który powstaje, jest dodatkową pożywką dla wielu mikroorganizmów, czyli jest to jak najbardziej efektywny proces – wskazuje prof. dr hab. Wojciech Stępień.

Z danych Głównego Urzędu Statystycznego wynika, że z roku na rok rośnie udział kompostowania w procesie przetwarzania odpadów. W ubiegłym roku do kompostowania zostało w Polsce przekazanych ponad 1,8 tys. t odpadów komunalnych, co stanowi 13,3 proc. wszystkich takich odpadów. Rok wcześniej było to ponad 1,5 tys. t, co stanowiło 12 proc. wszystkich odpadów komunalnych. Zdaniem eksperta obniżenie stawek za odbiór śmieci dla osób kompostujących odpady mogłoby się przyczynić do popularyzacji inwestowania gospodarstw domowych w ten proces.

Jeżeli chcemy wdrożyć wszystkie założenia biogospodarki Zielonego Ładu, to być może dobre byłyby takie zachęty na początek, żeby się ludzie przyzwyczaili, żeby jednak zadbali pośrednio o środowisko. Nie ma innej metody jak ekonomia – podkreśla ekspert SGGW w Warszawie. – Cały problem jest we właściwym planowaniu gospodarki odpadami, jej kontroli i rozliczania. To jest problem dość złożony, jak wycenić, ile, kiedy. To powinno być szczegółowo przemyślane, znalezienie mechanizmów, jak to oceniać ilościowo, jakościowo, bo z tym jest najczęściej w Polsce problem, jeżeli spojrzymy na różnego typu aspekty związane z gospodarką różnymi materiałami odpadowymi.

Jak podkreśla ekspert, kompost jest bezpieczniejszy dla gleby niż bezpośrednie wprowadzanie do niej biomasy, a jego używanie przyczynia się do zmniejszenia wykorzystania nawozów mineralnych.

– To, co jest w kompoście, w zależności od wsadu, nie zawsze w pełni będzie zaspokajać potrzeby poszczególnych gatunków roślin. Nawozy są niezbędne, jeżeli chcemy uzyskiwać wyższe poziomy plonowania, bo system zamknięty, w jakim funkcjonujemy, pozwala na uzyskiwanie poziomu plonowania na średnim poziomie. Proces kompostowania przyspiesza pewne przemiany, które mogłyby zachodzić w glebie – mówi prof. dr hab. Wojciech Stępień. – Kompost może nie zastępuje, ale zmniejsza zużycie nawozów mineralnych, a przede wszystkim energii, bo azotu, który zabezpieczymy w kompoście, nie musimy pozyskiwać w fabryce nawozów azotowych. Czyli to racjonalizuje gospodarkę, ogranicza zużycie nawozów mineralnych i jak najbardziej w tym kierunku powinniśmy pójść.