didleth

Niemcy: czy aplikacje zalecane przez lekarzy są bezpieczne?

Pacjenci korzystający z aplikacji Edupression używali jej licząc, że pomoże im w problemach ze zdrowiem psychicznym. Niektórym została zalecona wprost przez lekarza jako narzędzie łagodzące objawy depresji. W aplikacji prowadzili dziennik objawów, uczyli się, co pomaga w przypadku dręczących myśli czy zaburzeń snu. 5 maja firma Sofy GmbH z siedzibą w Austrii poinformowała 2000 użytkowników o naruszeniu ich danych – przy czym nie chodziło jednie o dane osobowe, ale też o informacje zdrowotne, z wpisani dot. myśli samobójczych włącznie.

Za całą sprawą mają stać aktywiści zajmujący się bezpieczeństwem danych, a same dane nie zostały nigdzie opublikowane. Firma poinformowana o problemie załatała lukę bezpieczeństwa zaznaczając jednocześnie, że utracone dane mogą teoretycznie zostać użyte niezgodnie z prawem.

Za atakiem stoi grupa hakerska “Zerforschung” (niem. “badania”), zwracająca uwagę na luki w zabezpieczeniach systemów i aplikacji. Reprezentująca grupę Lilith Wittmann opowiedziała w wywiadzie udzielonym portalowi Zeit Online, że ze względu na słabe zabezpieczenia interfejsu możliwy był dostęp do danych 2000 użytkowników. I nie jest to pierwszy przypadek, w którym ujawniono luki w zabezpieczeniach aplikacji reklamowanych przez lekarzy czy firmy ubezpieczeniowe. Haktywiści Zerforschung odkryli już wcześniej luki w zabezpieczeniach aplikacji Novego przeznaczonej dla osób z depresją oraz programu Cancado dla pacjentek z rakiem piersi.

Novego, Cancado i Edupression mają ze sobą jeszcze coś wspólnego. To tzw. cyfrowe aplikacje medyczne (niem. digitale Gesundheitsanwendungen, w skrócie DiGA), które zostały zatwierdzone jako narzędzia medyczne, mogą być przepisywane przez lekarzy i finansowane przez służbę zdrowia.

Informacje dot. zdrowia to dane szczególnie wrażliwe. Pojawia się więc pytanie: dlaczego nie są lepiej chronione?

Producent chcący wprowadzić na rynek urządzenie, które znajdzie się na liście DiGA w Federalnym Instytucie Leków i Urządzeń Medycznych, musi udowodnić jego skuteczność i bezpieczeństwo. Teoretycznie jedno i drugie jest trudne do zdobycia, ale że ustawodawca chce promować innowacje w sektorze zdrowia, dla aplikacji ustanowił tzw. uproszczoną procedurę. W praktyce, by zostać wciągniętym na listę wystarczy, że świadczeniodawca (tutaj: firma stojąca za daną aplikacją) wstępnie wykaże przybliżoną skuteczność. Na przeprowadzenie badań i udowodnienie “pozytywnych efektów” ma kolejny rok – przez który aplikacja jest refundowana i przepisywana przez lekarzy. Do udowodnienia bezpieczeństwa zaś wystarczy test penetracyjny, polegający na zleceniu zewnętrznemu podmiotowi sprawdzenia bezpieczeństwa programu poprzez próbę znalezienia słabych punktów. Edupression taki test przeszedł.

Tyle, że – o ile w przypadku innych rozwiązań medycznych, jak np. protez czy rozruszników serca, ustawodawca wskazuje konkretne podmioty do przeprowadzenia testów, to producenci DiGA dostają wolną rękę i mogą sami wybrać, kto przetestuje ich bezpieczeństwo.

W praktyce to, czy producent aplikacji dostanie się na listę refundowanych produktów i na tym zarobi (w przypadku Edupression recepta to koszt 300 Euro, uzupełniająca – 150 Euro) zależy do tego, jak szybko jego produkt przejdzie testy bezpieczeństwa. A to wywiera presję na firmy zewnętrzne z branży IT, które takie kontrole przeprowadzają. Siłą rzeczy te, które przymkną oko na nieprawidłowości, będą przez producentów aplikacji częściej wybierane.

Mimo, iż przedstawiciel firmy Daniel Amann twierdził, iż dostęp do danych wymagał specjalistycznej wiedzy technicznej, programistycznej i znajomości technologii webowych, to atak przeprowadzony przez Zerforschung nie był askomplikowany – nie polegał na włamywaniu się czy używaniu złośliwego oprogramowania, a na wypróbowywaniu różnych cyfr w końcówce adresu URL. Potwierdził to magazyn Zeit Online, mający dostęp do raportu, które grupa hakerska wysłała do Sofy GmbH.

Finalnie Edupression został poproszony przez BfArM o wyjaśnienie “czy i dlaczego producent aplikacji uważa środki bezpieczeństwa za “wystarczające i niezawodne oraz jakie dalsze środki podejmie, aby zapobiec podobnym incydentom”.

Dotąd problemy związane z ochroną i bezpieczeństwem danych wystąpiły w przypadku 5 aplikacji DiGA. 3 dotyczyły przechowywania danych użytkowników o amerykańskich dostawców, wbrew wymogom prawnym. 2 dotyczyły wycieku danych. Z Edupression to łącznie 6 aplikacji, z 45 umieszczonych na liście. Problem dotyczy więc co siódmej.

Urząd BfArM nie pozostaje jednak bezczynny. Może prowadzić dochodzenia, wydawać ostrzeżenia czy usunąć z listy DiGA, jeśli dana aplikacja nie spełnia jej wymogów. Do tej pory stało się tak w 4 przypadkach. Jednak w przypadku Edupression możliwości urzędu się kończą – musi zaakceptować test penetracyjny przeprowadzony przez dowolnego usługodawcę, nie może przeprowadzić go sam. W efekcie tego luki w zabezpieczeniach wychodzą na jaw dopiero w efekcie działań w lepszym przypadku – etycznych hakerów, w gorszym – przestępców. A, jak wykazała naukowczyni z Duke University w USA, istnieje czarny rynek danych dot. depresji. Handlarze sprzedawali w internecie nazwiska, adresy i diagnozy chorób psychicznych amerykańskich obywateli.

Jest jeszcze coś. Anke Virks, prawniczka w Federalnym Komisarzu Ochrony Danych i Wolności Informacji zwraca uwagę, że w tego typu aplikacjach standardem powinna być pseudonimizacja. Wraz z Federalnym Urzędem Bezpieczeństwa Informacji urząd ten doradzał BfArM, jak w przyszłości powinny wyglądać kryteria testowe IT dla aplikacji zdrowotnych. Wytyczne BfArM jednoznacznie stwierdzają, że świadczeniodawcom nie wolno gromadzić danych umożliwiających identyfikację osoby fizycznej. Sytuacja, w której informacje o myślach samobójczych są bezpośrednio powiązane z nazwiskami osób i dodatkowo są dla atakujących dostępne w niezaszyfrowanej formie, jest niedopuszczana.“Producenci są zobowiązani na mocy prawa o ochronie danych do przestrzegania przepisów GDPR.” – mówi Virks.

Tekst na podstawie artykułu Evy Wolfangel https://www.zeit.de/digital/datenschutz/2023-05/gesundheitsapp-datenschutz-depression-edupression-sicherheitsluecke

Ps. Tak, wiem, że tekst jest mocno niedopracowany, wrzucam ze względu na wartość informacyjną, nie literacką

#Niemcy #ePanstwo #zdrowie #RODO

Kolejna krytyka kontroli czatu

Coraz więcej ekspertów podkreśla, że planowana kontrola czatu jest niezgodna z prawem. Na propozycję spadła teraz krytyka ze strony unijnych prawników (ich opinia: https://cdn.netzpolitik.org/wp-upload/2023/05/2023-04-26_Council_Legal-Service_CSAR_8787_Agence-Europe.pdf). Zwracają oni uwagę, że propozycja KE jest sprzeczna z orzecznictwem ETS (Europejskiego Trybunału Sprawiedliwości). Wytyczne dot. nadzoru powinny być bowie sformułowane jasno i precyzyjnie, a projekt Komisji daje duże pole do interpretacji i nadużyć. Zaproponowana ingerencja idzie zbyt daleko (względem takiej, która powinna skupić nie na wykrywaniu przestępców) i jest nieproporcjonalna względem potrzeb. Jest sprzeczna z prawami podstawowymi, gdy narusza prawo do prywatności i poufnej komunikacji. Weryfikacja wieku doprowadziłaby zaś do masowego profilowania użytkowników i polegałaby na gromadzeniu danych biometrycznych lub wprowadzeniu innych cyfrowych systemów identyfikacji.

Wcześniej projekt KE został już skrytykowany przez Europejska Rada Ochrony Danych, Europejski Inspektorat Ochrony Danych, 2 parlamentarne komisje (w tym LIBE), naukowców PE, różnych posłów i posłanki, organizacje zajmujące się obroną praw dziecka i ochroną praw obywatelskich. Jej przedstawiciele pozostają jednak niewzruszeni. ““Komisja nie zamierza wycofać ani zmienić wniosku” – odpowiedziała niedawno komisarka UE ds. wewnętrznych Ylva Johansson na pytanie europosła Moritza Körner”

źródła: https://www.heise.de/news/Chatkontrolle-Juristischer-Dienst-des-EU-Ministerrats-prognostiziert-Scheitern-8990510.html https://netzpolitik.org/2023/neues-rechtsgutachten-chatkontrolle-kommt-zunehmend-unter-druck/

#kontrolaczatu #kontrolachatu #kontrola_chatu

Ile energii zużywa ChatGPT?

#AI #centradanych #chatgpt #chatbot #LLM #sztucznainteligencja #Microsoft

Trudno oszacować, ile energii potrzebują systemy AI oraz jaki jest ich wpływ na środowisko. Wiadomo, że pobierają prąd i produkują CO2. Amerykańska naukowczyni Emma Strubell bada to zagadnienie jako jedno z niewielu. Według jej szacunków wytrenowanie jednego modelu językowego produkuje mniej więcej tyle CO2, co 5 samochodów spalinowych przez cały okres ich użytkowania. Lub 2/3 tego, co wytwarza człowiek w ciągu całego życia.

Wyliczenia z poszczególnych źródeł mocno się różnią, a same firmy dzielą się nimi niechętnie. Dochodzą też kwestie związane z czasem potrzebnym na wytrenowanie modelu – czym innym jest stworzenie technologii od zera, czym innym “jedynie” dodanie nowej funkcji, a czymś jeszcze innym dokonanie skoku z jednej wersji do drugiej. Nie wiadomo np., ilu szkoleń potrzebowało OpenAI, by rozwinąć ChatGPT-3.5 do ChatGPT-4. To wciąż dobrze strzeżona tajemnica firmy. Eksperci Google'a uspokajają, że zużycie energii przez LLM osiągnęło już szczyt i teraz będzie spadać – jednocześnie Google pracuje nad własnym ChatBotem.

Start-up Hugging Face, właściciel modelu językowego BLOOM opublikował informacje, wedle której trening technologie wyemitował do atmosfery 25 ton CO2, a uwzględniając produkcję komponentów i infrastrukturę – 50 ton. Austriacka Agencja Środowiska podała, że w 2021 roku w Austrii wyemitowano 77,5 mln ton ekwiwalentu CO2 (przypada 8,5 tony na osobę). BLOOM wytrenowano bazując na francuskim klastrze komputerowym zasilanym energią jądrową – gdyby trenowano go w USA czy w Chinach, produkcja CO2 byłaby odpowiednio wyższa

Szkolenie ChatuGPT firmy OpenAI powoduje już większą emisyjność i zużywa więcej zasobów. Według badaczy i badaczek z Google'a oraz Uniwersytetu w Berkeley to odpowiednio 552 tony emisji CO2 i zużycie 1287 megawatogodzin energii – czyli tylu, ile 320 czteroosobowych gospodarstw domowych zużywa w ciągu roku. Pierwszą wersję generatora obrazów Stable Diffusion trenowano przez 200 000 godzin w centrach danych AWS firmy Amazon na wschodnim wybrzeżu USA, co miało doprowadzić do wyprodukowania 15 ton ekwiwalentu CO2.

Jednak dla środowiska trening sztucznej inteligencji to tylko część problemu. Osobną stanowi samo jej wykorzystanie – uwzględniając, że po pięciu dniach od premiery z ChatuGPT skorzystało milion osób, a po 2 miesiącach aktywnie używało go ponad 100 mln użytkowników. Żeby osiągnąć podobny efekt Instagram potrzebował 2,5 roku, zaś TikTok – 9 miesięcy. Portal Futurezone.at zapytał o zdanie informatyczkę z Politechniki Wiedeńskiej Ivonę Brandic, od lat zajmującą się kwestiami chmury obliczeniowej i efektywności energetycznej systemów IT. Naukowczyni przestrzega przed lekceważeniem zużycia energii przez nowe technologie: “To, co często się bagatelizuje, to koszty sieciowe. Za każdy razem, gdy miliony ludzi korzystają z ChatuGPT, odbywa się transfer danych. I to dodatkowo do wszystkich innych rzeczy, które już robimy w naszej sieci”.

A co z centrami danych?

W wielu miejscach świata centra danych pracują pełną parą. Amazon i Microsoft planowały postawić swoje centra danych w Irlandii, jednak uwzględniając, jak dużo energii pochłaniają tego typu przedsięwzięcia, Irlandia odmówiła. Tamtejszy operator sieci energetycznej obawiał się blackoutu. Już teraz bowiem centra pochłaniałyby 11% całkowitego zapotrzebowania kraju na energię elektryczną, a przy utrzymaniu ich obecnego tempa ekspansji – w 2030 roku udział ten wzrósłby do 1/3. Facebook czy Google już teraz starają się budować centra danych w miejscach, w których do dyspozycji mają sporo “zielonej” energii.

Globalny sektor IT odpowiada szacunkowo za 2 do 4% światowej emisji gazów cieplarnianych. AI stanowi tu więc niewielki odsetek, ale jego rola prawdopodobnie wzrośnie.

Tekst na podstawie: https://futurezone.at/science/energie-chatgpt-kuenstliche-intelligenz-co2-strom-sprachmodelle-emissionen-klima/402423695

Prasówka 28.04-05.05.2023

#prasowka

BigTech

#BigTech

  1. Dlaczego ZOOM jest zły? Przegląd linków: https://md.darmstadt.ccc.de/zoom-ist-boese?view#

  2. Deklaracje kontra rzeczywistość. YouTube wciąż zarabia na dezinformacji klimatycznej https://cyberdefence24.pl/biznes-i-finanse/deklaracje-kontra-rzeczywistosc-youtube-wciaz-zarabia-na-dezinformacji-klimatycznej

  3. Coraz mniej pracowników i coraz więcej problemów technicznych. Wpadki Twittera (cyberdefence) https://szmer.info/post/318098

  4. wywiad z dziennikarką inwigilowaną przez TikToka: https://netzpolitik.org/2023/ueberwachte-journalistin-tiktok-war-veraengstigt-und-ist-ausgerastet/

  5. #CyberMagazyn: „TikTok to crack”. Zamknięty krąg depresji w sieci https://szmer.info/post/317797

  6. Przyznano Big Brother Awards: https://bigbrotherawards.de/ https://writefreely.pl/didleth/microsoft-otrzymuje-big-brother-award

Sztuczna inteligencja

#AI #sztucznainteligencja #SI

  1. #CyberMagazyn: Sztuczna inteligencja może sprawić, że praca artystów będzie elitarna https://szmer.info/post/317800

  2. ChatGPT raczej nie zniknie z Europy. Wprowadzono stosowne zabezpieczenia (spiderweb) https://szmer.info/post/317814

  3. Firma Palantir prezentuje AI przeznaczoną do działań wojennych https://www.derstandard.at/story/2000145960018/softwarefirma-palantir-praesentiert-die-erste-ki-fuer-den-kriegseinsatz?

  4. Sztuczna inteligencja. Łączność kluczowa dla wojska w korzystaniu z jej możliwości? https://cyberdefence24.pl/armia-i-sluzby/sztuczna-inteligencja-lacznosc-kluczowa-dla-wojska-w-korzystaniu-z-jej-mozliwosci

  5. Raport za milion złotych napisała sztuczna inteligencja? Uniwersytet we Wrocławiu grzmi https://www.bankier.pl/wiadomosc/Uniwersytet-we-Wroclawiu-raport-za-milion-zlotych-napisala-sztuczna-inteligencja-8534740.html

  6. Sztuczna inteligencja zagrożeniem. Tak twierdzi „ojciec chrzestny” AI https://cyberdefence24.pl/technologie/sztuczna-inteligencja-zagrozeniem-tak-twierdzi-ojciec-chrzestny-ai

  7. IBM może wstrzymać zatrudnianie ludzi. Zastąpi ich sztuczną inteligencją? (cyberdefence) https://szmer.info/post/318084

  8. Komisarka ds Ochrony Danych z landu Szlezwik-Holsztyn o ChacieGPT. Wywiad https://www.heise.de/hintergrund/Datenschuetzerin-ueber-ChatGPT-Viele-Fragen-von-Leuten-die-sich-Sorgen-machen-8981513.html?

  9. Kalifornia chce, by policja mogła stosować technologię rozpoznawania twarzy https://act.eff.org/action/stop-this-dangerous-bill-that-would-normalize-face-surveillance-in-california

  10. Czy sztuczna inteligencja może otrzymać patent? https://www.eff.org/deeplinks/2023/04/stupid-patent-month-trying-get-us-patents-ai-program

  11. Samsung zablokował pracownikom dostęp do chatbotów. I trudno mu się dziwić (spiderweb) https://szmer.info/post/317816

  12. Jak działa sztuczna inteligencja? Rozmowa z dr. Tomaszem Odrzygóździem (podcast) https://panoptykon.org/panoptykon40-chatgpt-ai-odrzygozdz

  13. Problemy chińskiej AI. Chodzi o cenzurę https://cyberdefence24.pl/polityka-i-prawo/problemy-chinskiej-ai-chodzi-o-cenzure

Państwo i eAdministracja

#panstwo #ePanstwo #EU #eEU #ePolska #Niemcy

  1. Federalna Komisja Handlu chce zakazać Mecie zarabiania na danych dzieci https://cyberdefence24.pl/polityka-i-prawo/federalna-komisja-handlu-chce-zakazac-mecie-zarabiania-na-danych-dzieciFederalna

  2. Zbliża się głosowanie plenarne w sprawie aktu o sztucznej inteligencji #AIAct. Wątek Fundacji Panoptykon na Mastodonie https://eupolicy.social/@panoptykon/110315476519547521

  3. REAL Political Ads Act ureguluje w USA stosowanie AI w reklamie politycznej? https://szmer.info/post/318100

  4. Uprawnienia inwigilacyjne “służby specjalnej” ministra sprawiedliwości pod lupą NIK? https://infosecurity24.pl/sluzby-mundurowe/sluzba-wiezienna/uprawnienia-inwigilacyjne-sluzby-specjalnej-ministra-sprawiedliwosci-pod-lupa-nik

  5. Co dalej z rozporządzeniem ePrivacy? (komentarz) https://netzpolitik.org/2023/targeted-advertising-die-eu-scheitert-am-datenschutz-im-netz/

  6. 46 organizacji i firm europejskich wystosowało list otwarty w sprawie “Pakietu Łączności” ogłoszonego przez KE https://epicenter.works/sites/default/files/statement_against_nf_020523_-_final_0_0.pdf https://netzpolitik.org/2023/geldregen-fuer-internet-provider-breite-allianz-warnt-vor-datenmaut/

  7. Patostreaming będzie przestępstwem. Wójcik: “Zagrożony karą więzienia” https://cyberdefence24.pl/polityka-i-prawo/patostreaming-bedzie-przestepstwem-wojcik-zagrozony-kara-wiezienia

  8. Bundestag szpiegowany przez Rosjan? Pomóc ma specjalna folia https://infosecurity24.pl/za-granica/bundestag-szpiegowany-przez-rosjan-pomoc-ma-specjalna-folia

  9. Niemcy: ustawa o przeciwdziałaniu przemocy cyfrowej https://netzpolitik.org/2023/digitale-gewalt-acht-klaffende-luecken-im-geplanten-gesetz/ https://netzpolitik.org/2023/gesetz-gegen-digitale-gewalt-es-gibt-nicht-genug-beratungsstellen/

  10. Austria, Niemcy, Francja i Irlandia przeciwko kontroli czatu. W USA przedstawiono w senacie Stop CSAM Act, wraca temat EARN IT Act https://www.heise.de/hintergrund/Chatkontrolle-Transatlantisches-Hin-und-Her-um-E2E-Verschluesselung-8982723.html

  11. Traktat ONZ o cyberprzestępczości. Projekt planowany na czerwiec (cyberdefence24) https://szmer.info/post/317795 https://www.euractiv.com/section/law-enforcement/news/west-clashes-with-china-russia-over-un-cybercrime-convention/

  12. #CyberMagazyn: Anatomia reklamy politycznej w świecie cyfrowym https://cyberdefence24.pl/cybermagazyn/cybermagazyn-anatomia-reklamy-politycznej-w-swiecie-cyfrowym

  13. Unia posprząta spam z twojego smart TV. Warunek jest tylko jeden (spiderweb) https://szmer.info/post/318097

  14. Niemcy: Linie lotnicze przekazały policji w ostatnim roku dane 121 mln pasażerów https://netzpolitik.org/2023/424-millionen-datensaetze-deutlicher-anstieg-bei-der-fluggastdatenspeicherung/

  15. Prokuratura stawia zarzuty dziennikarzom z „Radio Dreyeckland“ za linkowanie do archiwum Indymediów https://netzpolitik.org/2023/wegen-einer-nachrichtenmeldung-staatsanwaltschaft-klagt-freiburger-journalisten-an/

Ochrona danych

#ETS #RODO

  1. Europejski Trybunał Sprawiedliwości: odszkodowanie za naruszenie ochrony danych możliwe https://netzpolitik.org/2023/eugh-urteil-schadenersatz-fuer-datenschutzverstoesse-moeglich/ https://mastodon.internet-czas-dzialac.pl/@agnieszka/110309711703223488

  2. T-Mobile informuje o kolejnym wycieku danych. Co z polskimi klientami? https://cyberdefence24.pl/cyberbezpieczenstwo/t-mobile-informuje-o-kolejnym-wycieku-danych-setki-osob-poszkodowanych

Pozostałe:

  1. Czym jest przymus cyfrowy? https://digitalcourage.de/digitalzwang/definition

  2. Zaufana Trzecia Strona, odcinek 517 https://zaufanatrzeciastrona.pl/post/weekendowa-lektura-odcinek-517-2023-04-29-bierzcie-i-czytajcie/

  3. Niemcy: paczkomaty DHL dostępne tylko przez aplikację? https://www.heise.de/news/Packstation-DHL-ruestet-aeltere-Automaten-auf-Bluetooth-um-8973241.html

#inwigilacja #internet #cyberbezpieczenstwo #cyfryzacja #digitalizacja #indymedia

Microsoft otrzymuje Big Brother Award

#BigTech #Microsoft

Microsoft otrzymał Big Brother Award (Nagrodę Wielkiego Brata) za “całokształt twórczości”. Big Brother Award to przyznawana corocznie w różnych krajach nagroda za szczególne osiągnięcia w dziedzinie naruszenia prywatności czy ochrony danych osobowych. Nazywa się ją czasem “Oskarem inwigilacji”.

Oprogramowanie Microsoftu jest obecne we wszystkich dziedzinach życia – w pracy, administeacji publicznej, na urządzeniach osobistych itp. Firma wciąż rozszerza swoją władzę nad danymi.

Nagrody przyznała w piątek 28.04.2023 niemiecka organizacja Digitalcourage. W skład pięcioosobowego jury weszło dwóch członków Digitalcourage, Frank Rosengart z Chaos Computer Club i dwóch innych ekspertów zajmujących się ochroną danych. Nagrodę za “całokształt twórczości” otrzymał Microsoft. To nie pierwsze takie odznaczenie dla firmy – w 2002 roku otrzymała je już za “kompleksową technologią kontroli praw autorskich”, Digital Rights Management.

Thilo Weichert, były komisarz ds. ochrony danych w Szlezwiku-Holsztynie i ekspert ds. ochrony danych w Netzwerk Datenschutzexpertise określił Microsoft mianem “wielkiej protekcjonalnej maszyny okradającej nas z cyfrowej suwerenności”. Opowiada o różnych czynnikach, które doprowadziły jury do podjęcia takiej decyzji.

Microsoft chce przejąć producenta gier Activision Blizzard, m. in. po to, by uzyskać przewagę w dziedzinie wirtualnej rzeczywistości (metaverse). Urząd ds. konkurencji w Wielkiej Brytanii zablokował póki co tę operację, by firma nie uzyskała nadmiernej przewagi na rynku.

Kolejny problem to aplikacje pakietu biurowego. Jak wielka jest zależność od ich usług okazało się w styczniu, gdy, podczas awarii MS Office, wiele firm musiało po prostu przerwać pracę. Microsoft dominuje także w niemieckiej administracji: gdy w maju 2021r. zapytali o to posłowie FDP okazało się, że 96 procent wszystkich urzędów federalnych używało w 2018 roku Microsoft Office i Windowsa, zaś 69 procent korzystało z Windows Servera. Od tego czasu sytyuacja się nie poprawiła, wręcz przeciwnie, dominacja koncernu wzrosła. Mimo, że pierwotnie planowano wyposażyć berlińskich nauczycieli w adresy mailowe z mailbox.org, to kontrakt otrzymał amerykański koncern technonogiczny.

W listopadzie 2022 roku eksperci zajmujący się ochroną danych zwracali uwagę, że Microsoft 365 jest niezgodny z RODO. Microsoft nie ujawnia, jakie kategorie danych i w jakim celu przetwarza, ponadto przekazuje dane do USA – gdzie poziom ich ochrony jest niższy niż w EU, a dostęp do danych mają amerykańskie służby specjalne, co stoi w sprzeczności z decyzją Europejskiego Trybunału Sprawiedliwości.

Pozostali laureaci to niemiecki minister finansów Christian Lindner (w kategorii “Władze i administracja”), firma fintech Finleap (w kategorii “Finanse”), platforma wideokonferencyjna Zoom (w kategorii “Komunikacja”), grupa Deutsche Post DHL (w kategorii “Ochrona konsumentów”).

Tekst na bazie https://robertkoop.wordpress.com/2023/05/02/lebenswerk/ (podlinkowane na mastodonie digitalcourage) video: https://digitalcourage.video/w/gPdZJxJ2Q7fyc92hCj77LN

Co DSA zmieni w Wikipedii? - wywiad

DSA zawiera wyjątkowo szczegółowe regulacje dla dużych platform internetowych. Większość z nich to komercyjni giganci, jest jednak jeden wyjątek: Wikipedia, moderowana głównie przez wolontariuszy. Jak Wikipedia radzi sobie z nowymi regulacjami?

Akt o Usługach Cyfrowych (DSA) reguluje w UE działalność platform internetowych, dla działalności tych największych przewidując więcej owarunkowań. Jednak wśród tzw. VLOPs (skrót od “Very Large Online Platforms”) znajdują się nie tylko serwisy prowadzone przez korporacje, ale także moderowana przez wolontariuszy Wikipedia. Przedstawiciele portalu netzpolitik.org rozmawiają z Dimitarem Dimitrovem z Wikimedia w Brukseli o tym, co DSA w praktyce oznacza dla internetowej encyklopedii. Poniżej (mniej lub bardziej) luźne tłumaczenie wywiadu:

netzpolitik.org (N): Co to właściwie oznacza być VLOP?

Dimitar Dimitrov (DD): Wszyscy się nad tym zastanawiamy. Po pierwsze – trzeba podać Komisji Europejskiej liczbę swoich użytkowników w UE. Jeśli masz miesięcznie ponad 45 mln aktywnych użytkowników, to jesteś VLOP

N: A w jaki sposób oszacowaliście, ilu użytkowników ma realnie Wikipedia?

DD: Powiedzieliśmy Komisji, że przypuszczalnie mamy około 145 mln użytkowników miesięcznie. Oszacowanie tego w naszym przypadku było trudne, gdyż – w przeciwieństwie do innych sieci społecznościowych – zbieramy maksymalnie mało danych o naszych użytkownikach. Co w praktyce oznacza, że jedyne, co znamy, to ilość poszczególnych urządzeń.

Nie wiemy jednak, czy poszczególne urządzenia przekładają się na liczbę konkretnych użytkowników. W związku z tym zapytaliśmy Komisję, czy byłoby ok dokonać obliczeń szacunkowych, gdyż nie chcemy zbierać więcej danych o użytkownikach.

Istnieje takie badanie Cisco analizujące na przestrzeni kilku lat, ile urządzeń przypada na jedną osobę. Na świecie rozkłada się to różnie: w niektórych krajach na jeden komputer przypada kilka osób, w innych – kilka tego typu sprzętów (np. telefon, komputer, tablet) na 1 osobę. Wedle tego badania w UE wychodzi od 3 do 7 urządzeń na 1 człowieka. Wybraliśmy więc ostrożny wariant i stwierdziliśmy: na każde 3 urządzenia przypada 1 użytkownik. Komisja to zaakceptowała, ale też nie byliśmy skrajnym przypadkiem. Nawet przy ostrożnych szacunkach mieliśmy 145 mln użytkowników, a do uznania nas za VLOP potrzeba tylko 45 mln.

N: Co trzeba robić będąc VLOP?

DD: Kiedy zostanie się przez Komisję oznaczonym jako VLOP, ma to określone skutki. Trzeba na przykład co roku przeprowadzać ocenę ryzyka.

N: O jakie ryzyko chodzi? DD: Chodzi o wszystkie ryzyka systemowe związane z platformami internetowymi, takie jak manipulacja, dezinformacja czy mowa nienawiści. Taką oceną zajmują się zazwyczaj podmioty zewnętrzne. Dlatego najpierw musimy rozejrzeć się za firmą, która się takimi sprawami zajmuje. Jako organizacja non-profit nie chcemy po prostu iść do jednej z dużych i komercyjnych firm konsultingowych. Nie chcemy widzieć, jak duzi, dominujący w sektorze finansowym przedsiębiorcy dzielą ten rynek między sobą. Zamiast tego wolelibyśmy, gdyby pojawiły się również oferty ze strony spółdzielni lub organizacji non-profit.

Dokonawszy oceny ryzyka jesteśmy zobowiązani zaproponować środki zaradcze w odniesieniu do zidentyfikowanych zagrożeń i przesłać je do Komisji. Komisja przyjrzy się jednemu i drugiemu – i dla obu tych przypadków musimy znaleźć kogoś, kto przeprowadzi audyt.

N: Jak dużo wysiłku kosztuje Was taka ocena ryzyka?

DD: To, że w przypadku dużych platform trzeba przynajmniej raz w roku przysiąść i zastanowić się “jakie mamy ryzyka i w jaki sposób możemy im przeciwdziałać?” jak najbardziej ma dla nas sens. Przyjmujemy to z zadowoleniem mimo, iż oznacza to dla nas więcej biurokracji. Sądzimy, że poniesiemy w związku z tym koszt co najmniej jednego pełnego etatu rocznie.

N: Moderacją Wikipedii zajmują się głównie wolontariusze. Sądzisz, że DSA to zmieni?

DD: Robimy wszystko, co w naszej mocy, aby nic nie zmieniło się dla naszych wolontariuszy i aby Wikipedia również się nie zmieniła.

Absolutna większość moderacji spoczywa na wolontariuszach, wykonujących swoją pracę na stronie. Co nie oznacza, że Fundacja Wikimedia, będąca tu operatorem, nie otrzymuje pism, upomnień czy próśb o usunięcie treści.

DSA będzie więc dotyczyć bezpośrednio samej Fundacji Wikimedia – to, co robią na stronie użytkownicy, nie powinno w zasadzie ulec zmianie. Ale jeśli użytkownicy nie będą respektować prawa i zasad, to administrator [w znaczeniu: operator, przedsiębiorca itp.] musi zainterweniować. Nie może powiedzieć: “Nie, nie interesuje mnie to, przecież oni na stronie robią wszystko samodzielnie”

Jednakże, póki autonomiczna moderacja przez społeczność działa, DSA nie ingeruje. I dla nas to bardzo ważne. Ponieważ wierzymy, że moderacja społecznościowa jest sposobem na przeciwdziałanie niektórym problemom w internecie.

N: Ile wniosków o usunięcie treści wpłynęło do Fundacji Wikimedia w przeszłości?

DD: Co 6 miesięcy publikujemy raport. Ostatni dotyczył okresu od stycznia do lipca 2022 i można tam zobaczyć, jak ekstremalnie mało żądań usunięcia jakiejś zawartości otrzymuje Wikipedia. Istotna kategoria raportu to właśnie zgłoszenia będące prośbą o zmianę lub usunięcie treści – od stycznia do lutego 22 roku było ich tylko 361, wszystkie zostały rozpatrzone negatywnie.

Uwzględniliśmy także zgłoszenia dotyczące praw autorskich w związku z procedurami “notice and takedown”. W pierwszej połowie 2022 roku otrzymaliśmy 22 takie wnioski, pozytywnie rozpatrzyliśmy 4. To wprawdzie wciąż niewiele, ale muszę przyznać, że jasne ramy prawne pomagają obu stronom.

Dzięki DSA po raz pierwszy w historii w UE będzie obowiązek stosowania systemu “zawiadomienia i działania”. To pomoże na przykład w przypadku krzywdzących pism z upomnieniami, masowo wysyłanych przez niektórych prawników. System “notice and action” jasno informuje użytkowników, w jaki sposób mogą złożyć skargę, jak operator platformy musi zareagować i jak wygląda proces przekierowywania sprawy z pozasądowego arbitrażu do sądu.

To oznacza, że zarówno dla użytkowników, jak i dla platform mamy w końcu ramy zawierające jasne zasady wskazujące, jak się zachować w przypadku sporu dotyczącego moderowania treści. I wierzymy, że – przynajmniej w naszym przypadku – będzie to bardzo pomocne. Z naszych doświadczeń z USA wynika, że będzie mniej bezsensownej biurokracji związanej z trollingiem.

N: Co jeszcze zmieni się dla Was w związku z DSA?

DD: Problem, który musimy jeszcze rozwiązać: Komisja EU chce utworzyć bazę danych decyzji moderacyjnych. Każda decyzja dotycząca moderacji treści, którą podejmuje operator platformy, musi być przekazana do Komisji, a Komisja będzie prowadzić publiczną bazę danych na ten temat.

To brzmi wspaniale i nie jesteśmy temu przeciwni. Ale nam nie wolno przesyłać danych ujawniających informacje o danej osobie. Na tę chwilę próbujemy więc zorientować się, jak to zrobić bez ujawniania danych użytkowników?

To trudne, ponieważ Wikipedia to otwarta platforma z publiczną historią [wpisów]. Jeśli powiesz: zeszłego roku mieliśmy problem z polskojęzycznym artykułem o Iranie – to są tutaj dane, które można wykorzystać, by dowiedzieć się, jaki użytkownik lub jaki adres IP za tym stał. Jeśli chcemy to zrobić właściwie – czeka nas jeszcze trochę zachodu

Jednak ogólnie rzecz biorąc jesteśmy zadowoleni z DSA i chcemy, aby stało się ono globalnym standardem. Wciąż jednak jest kilka punktów, gdzie musimy się połapać, jak zrobić to dobrze i właściwie.

N: Czy oprócz Wikipedii istnieją inne niekomercyjne platformy uznawane za VLOP?

DD: Lista VLOP nie została jeszcze opublikowana. Publikacja nastąpi prawdopodobnie w ciągu najbliższych kilku tygodni*. Prawdopodobnie około 30 platform zostanie uznanych za VLOP, a Wikipedia jest prawdopodobnie jedyną niekomercyjną.

źródło: https://netzpolitik.org/2023/digitale-dienste-gesetz-was-die-neuen-eu-regeln-fuer-die-wikipedia-bedeuten/

*lista została opublikowana między ukazaniem się wywiadu a przetłumaczeniem go, zawiera 17 platform i 2 wyszukiwarki, jedynym niekomercyjnym podmiotem jest Wikipedia

Test. Robie sobie miejsce do wrzucania tekstów, które nie mieszczą się na szmerze. Albo mieszczą się, ale akurat szmer mi nie działa. Albo z jakiegoś powodu uznam, że nie chcę ich tam wrzucać, a byłoby nie fair wrzucać coś tylko na fb. I póki co sprawdzam, co i jak tutaj działa