Creativecommons.org -

Bassel Khartabil, CC by 2.0

On May 22nd, more than four years after his detention and six months after his disappearance, Bassel Khartabil (Arabic: باسل خرطبيل‎) will turn 35 years old. Bassel’s imprisonment by the Assad regime is a brutal human rights violation and the continued lack of answers about his fate is a hindrance to the fight for free information in the Middle East and beyond. While Creative Commons has been actively involved in the Free Bassel Campaign since the beginning, Bassel’s rumored death sentence makes today’s call to action particularly pressing.

As Lawrence Lessig wrote in 2012, “We distract ourselves with a million other things, but distraction doesn’t change reality: thousands have died; thousands more are being held; tyranny still lives.”

Bassel Khartabil is a Palestinian-Syrian Free Software and Free Culture activist and project lead for Creative Commons Syria. Bassel’s work on Mozilla Firefox, Wikipedia, Fabricatorz, and other open culture projects with his research company Aiki Labs has been credited by the European Parliament with “opening up the Internet in Syria and vastly extending online access and knowledge to the Syrian people.” Shortly after his detention, Bassel was named one of the top 100 global thinkers by Foreign Policy for “insisting, against all odds, on a peaceful Syrian revolution.”

This weekend, we’re joining with his friends around the world to continue to demand his immediate return to life as a free global citizen.

Take action at the Free Bassel campaign website.

The post #happybdaybassel appeared first on Creative Commons blog.

The true pioneers of the sharing economy

GoOpen.no -

The real sharing economy is not about renting out your apartment on Airbnb or offering your services as a taxi driver on Uber. These are both good services but it would be completely wrong to label them as pioneers of the sharing economy.

The true pioneers would be the technological sharing culture with projects like Linux, Wikipedia, Github and Open Street map. The communities that developed the Internet in the 90s and the important work by the free software movement in the 80s built the foundation for one of the largest paradigme shifts in history. The Creative Commons movement that has grown strong over the last 10 years has also played an important role in creating a strong sharing economy.

If one were to look for companies that can be called pioneers in the sharing economy it would have to be Amazon, Google and Redhat.

People like Richard Stallman, Tim Berners-Lee, Lawrence Lessig and Håkon W. Lie are pioneers of the sharing economy trough significant contributions that deserve to be mentioned.

Creative Commons: Remix from Creative Commons on Vimeo.

Don’t let California lock down public access to government works

Creativecommons.org -

If you’re a California resident, act now! Send a message to your state representatives telling them to uphold free, open access to California government works. 

Front of California State Capitol, by David Fulmer, CC BY 2.0

Unencumbered access to public sector information is central to a well-functioning democratic system. And if our government entities believe that transparency, collaboration, and public participation are civic goals worth supporting, then the public should be able to enjoy free and open access to taxpayer-funded government resources.

In February, California introduced a bill that would permit state and local government agencies “to own, license, and, if it deems it appropriate, formally register intellectual property it creates or otherwise acquires.” The law would control access to public sector information developed in California. The bill, called AB 2880, is currently moving through the state assembly. Its origin rests partly in a trademark dispute between the U.S. federal government and a third-party contractor at Yosemite National Park. AB 2880 was introduced to clarify the intellectual property rights held by the state of California.

Most of the intellectual property developed as a result of public funding in the state of California is in the public domain due to the state’s progressive copyright policy. This means that anyone may share and re-use the work of government agencies without having to ask permission or worry about infringing anyone’s copyright.

In its policy analysis of the proposed law, the state attempts to dismiss criticism by pointing out that AB 2880 wouldn’t interfere with individuals accessing information through a California Public Records Act request. While freedom of information requests are an important mechanism to ensure the public’s right to access government records, it’s not a viable or efficient technique for sharing a vast majority of the information the public should have access to by default. And, according to EFF, asking citizens to rely on records requests for access to publicly sector information is not a solution because California would still be able to regulate downstream uses of those materials:

“by explicitly reserving all of the exclusive rights given to a copyright holder, the state and local governments keeps extraordinary powers to restrain the ability for a citizen to distribute documents they obtain through a CPRA request.”

With changes in law and funding requirements, public sector bodies are switching the default from closed to open. Efforts such as Project Open Data, the agency-wide U.S. Department of Labor open licensing policy, the EU’s Horizon 2020 research program, and national level open licensing frameworks for public sector information in Australia and New Zealand are only a few examples.

In its own summary of the bill, the state specifically acknowledged the concern that “allowing state ownership of intellectual property might restrict the dissemination of information.” California should remove this bill from the legislative docket, or amend it in such a way that guarantees that the public is granted free and open access to government funded works.

If you’re a California resident, act now! Send a message to your state representatives telling them to uphold free, open access to California government works. 

The post Don’t let California lock down public access to government works appeared first on Creative Commons blog.

More than 40% of the global population does not have access to an education in a language they speak or understand

GoOpen.no -

Quality education should be delivered in the language spoken at home. However, this minimum standard is not met for hundreds of millions, limiting their ability to develop foundations for learning. By one estimate, as much as 40% of the global population does not have access to an education in a language they speak or understand (Walter and Benson, 2012).

A great part of the world’s learning content is written in English or in major languages in the industrial world. We don’t know the exact shares for the most-used languages when it comes to learning related content in particular, but it’s reasonable to assume this to be proximately equal to the most-used languages on the Internet as a whole.

As of 2015, 55.5 percent of all web content was in English, followed by the next four most-used world languages Russian, German, Japanese and Spanish, adding up to an additional 21.5 percent. Compared to this, the lack of digital resources is striking for languages like Swahili, Bangla or Hindi which are mother tongue or commonly spoken languages for an estimated 60+, 200+ and 500+ million respectively.

Kserokopia #36 (4-17 maja)

European Open EDU Policy Project -

W tym numerze Kserokopii piszemy zarówno o kwestiach z Polski (ustawa antyterrorystyczna, odpowiedzialność dyscyplinarna za copyright trolling czy konferencja w Senacie nt. prawa autorskiego), ale też o sprawach z areny międzynarodowej: kolejnych konsultacjach Komisji Europejskiej dotyczących reformy prawa autorskiego, dyskusji o potrzebie reformy ochrony własności intelektualnej w Australii czy wyroku w sprawie odpowiedzialności pośredników z Włoch. Ponadto zachęcamy do lektury inspirujących tekstów o tym, kto jest twórcą w XXI wieku i jak otwartość może nam pomóc pokonać raka.

Kolejne konsultacje Komisji Europejskiej

W ramach trwających prac nad Jednolitym Rynkiem Cyfrowym Komisja Europejska pyta tym razem o wolność panoramy i prawa pokrewne wydawców. O ile pierwszemu mówimy zdecydowane TAK, to drugiemu się zdecydowanie sprzeciwiamy. Dlaczego? Możecie o tym przeczytać na naszym blogu i w artykułach stowarzyszenia Communia. Zachęcamy do wzięcia udziału w konsultacjach – na stronie youcanfixcopyright znajduje się przewodnik po konsultacjach w języku polskim.

Ustawa antyterrorystycza

Temat nie dotyczy bezpośrednio prawa autorskiego, ale modelu funkcjonowania internetu – więc jest dla nas bardzo ważny. W projekcie ustawy antyterrorystycznej, której pierwsze czytanie będzie miało najprawdopodobniej miejsce dzisiaj, znajduje się zapis o możliwości zablokowania danych informatycznych do 5 dni, bez decyzji sądu. Naszym zdaniem jest co najmniej 7 powodów, dla których ten pomysł jest po prostu groźny. Wraz z innymi organizacjami zabraliśmy również głos w debacie na temat projektu ustawy w kontekście wolności słowa.

O prawie autorskim w Senacie

W ubiegły piątek w Senacie odbyła się konferencja “Prawo autorskie XXI wieku”. Na sali dyskutowali przedstawiciele różnych środowisk, którzy byli zgodni co do jednego – prawo autorskie nie jest dostosowane do cyfrowej rzeczywistości. Potrzebna jest zmiana systemu opłat z tytułu kopiowania prywatnego. Wnioski z debaty zaprezentowano na portalu  wgospodarce.pl.  

Kolejne zamieszanie wokół domeny publicznej

90 lat po pierwszym publicznym przedstawieniu w Paryżu Bolero Maurice Ravela przeszło do domeny publicznej. Jednakże SACEM, francuska organizacja zbiorowego zarządu, próbuje udowodnić że utwór powstał we współautorstwie z choreografem i scenografem, tak aby wydłużyć ochronę majątkowych praw autorskich o 20 lat.  

Thème A du Bolero de Maurice Ravel, https://commons.wikimedia.org/wiki/File:Bolero_maurice_ravel.png



Kto posiada prawa autorskie w XXI wieku?

Polecamy tekst z bloga policy Mozilli na temat tego, kto jest uprawnionym z tytułu praw autorskich w XXI wieku. Oczywiście odpowiedź jest prosta – każdy z nas. Dlatego też mylące jest stwierdzenie, że wszyscy uprawnieni popierają zaostrzenie prawa autorskiego.

Odpowiedzialność pośredników – jednak nie tak jednolicie

Wydawać by się mogło, że przepisy dotyczące odpowiedzialności pośredników są ujodnolicone dzięki dyrektywie e-commerce. Jednak co chwilę jakiś sąd krajowy wydaje zaskakujące decyzje, tak jak ostatni wyrok z Włoch. Sąd stwierdził, że skarga o naruszenie prawa autorskiego w ramach procedury notice and take down do pośrednika nie musi zawierać adresu URL strony.

Copyright trolling

Dziennik Internautów od dawna zwraca uwagę na zjawisko copyright trollingu. Tym razem w artykule Marcin Maj prezentuje kwestię postępowań dyscyplinarnych w ramach etyki zawodowej adwokatów i radców prawnych.

Otwartość a rak?

Od dawna pokazujemy zalety otwartości – w nauce niewątpliwie otwartość wspiera innowacyjne i odkrycia. Ryan Merkley, szef Creative Commons udowadnia, że dzięki otwartej nauce możliwa jest walka z rakiem. Zachęcamy do lektury inspirującego artykułu “Four things we can do now to unlock the cure for cancer”.

Prawo autorskie a wyszukiwarka grafik Google

Serwis Getty Images poinformował o wystosowaniu kolejnej skargi na Google do Komisji Europejskiej. Tym razem sprawa dotyczy naruszeń prawa autorskiego w kontekście antytrustowym  – po kliknięciu w obrazek w obrazkowej wyszukiwarce Google użytkownik widzi jego powiększoną wersję na ciemnoszarym tle. Getty Images uważa, że ten model uderzył w tysiące twórców z całego świata – użytkownik mający dostęp do obrazka w dużej rozdzielczości nie będzie zainteresowany odwiedzaniem strony twórcy. Więcej o sprawie pisze Dziennik Internautówthe Guardian.

Reforma prawa autorskiego – nie tylko w Europie

W Autralii, po opublikowaniu raportu nt. właśności intelektualnej, trwa debata o potrzebnych zmianach. Wyraźnie słyszalnymi głosami są te, wzywające do szeroko zakrojonego dozwolonego użytku oraz dopuszczenia eksploracji danych.


Prawo pokrewne, pomocnicze prawo autorskie dla wydawców prasy, podatek od linków: zły pomysł niezależnie od nazwy

European Open EDU Policy Project -

Artykuł autorstwa Paula Kellera został opublikowany na blogu Stowarzyszenia Communia 12 maja 2016.

Komisja Europejska przeprowadza obecnie konsultacje publiczne na temat roli wydawców w łańcuchu wartości praw pokrewnych oraz wolności panoramy. Dzisiaj rozpoczynamy krótką serię postów, w których będziemy przedstawiać problemy związane z nowym prawem autorskim dla wydawców i wyjaśniać, dlaczego pełna wolność panoramy powinna zostać zapewniona każdemu w UE. Niniejszy artykuł dotyczy tego, dlaczego nowe uprawnienia majątkowe dla wydawców są złym pomysłem.


Krótka historia praw pokrewnych w Europie

COMMUNIA od dawna ma krytyczne nastawienie do prób wprowadzenia dodatkowych praw dla wydawców prasy (zbiór poprzednich postów jest dostępny tutaj).

Prawo pokrewne, pomocnicze prawo autorskie dla wydawców prasy (ancillary copyright) umożliwiłoby wydawcom zarabianie na wykorzystywaniu krótkich fragmentów tekstu przez agregatory wiadomości, wyszukiwarki i być może inne mechanizmy, które gromadzą i udostępniają linki do artykułów wydawców (stąd nazwa: podatek od linków).

Takie rozwiązanie po raz pierwszy pojawiło się w Niemczech, a następnie zostało ono zaimplementowane do hiszpańskiego prawa autorskiego. Jest dobrze udokumentowane, że w obu przypadkach wprowadzenie tych nowych praw nie doprowadziło do osiągnięcia celów ich zwolenników.

autor nieznany, domena publiczna, http://hdl.handle.net/10934/RM0001.COLLECT.524391



Mimo to wydawcy nadal dążą do tego, aby takie prawo zostało uchwalone na skalę europejską. Pomysł ten nie pojawił się w strategii Komisji dotyczącej jednolitego rynku cyfrowego, jednakże komisarz Oettinger nie ukrywał swojego poparcia dla niego i dał jasno do zrozumienia, że pomysł może zostać podchwycony w każdej chwili.

W czasie debaty parlamentarnej na temat raportu Redy próby włączenia nowego prawa dla wydawców zostały przegłosowane większością głosów. Niezależnie od wyraźnego odrzucenia pomysłu przez Parlament Europejski Komisja wyraźnie wypowiadała się na temat wprowadzenia nowego prawa w ubiegłorocznym grudniowym komunikacie na temat modernizacji ram prawa autorskiego w UE:

Celem będzie zapewnienie, aby podmioty, które przyczyniają się do tworzenia tych wartości, miały możliwość w pełni ustalić swoje prawa, przyczyniając się tym samym do sprawiedliwego podziału tej wartości i do odpowiedniego wynagrodzenia treści chronionych prawami autorskimi na internetowym polu eksploatacji.

Rozpoczynając bieżące konsultacje, Komisja dała wyraźnie do zrozumienia, że jej celem jest wypełnienie tej różnicy w wartości poprzez przyznanie wydawcom dodatkowych praw na terenie UE. Jest to ogromne zwycięstwo wydawców, którzy nie szczędzili wysiłków, lobbując w kuluarach za takim obrotem spraw. Ich ścisłe zaangażowanie w ten proces jest doskonale widoczne w fakcie, że udało im się uruchomić realizację dedykowanej kampanii internetowej zaledwie kilka godzin po tym, jak Komisja rozpoczęła konsultacje. Konsultacje Komisji nie zawierają zbyt wielu szczegółów na temat praw pokrewnych dla wydawców, natomiast publishinersrights.eu jest tak pewny swojego wpływu na Komisję, że wyjaśnia, co Komisja zaproponuje po zakończeniu swoich negocjacji (podkreślenie nasze):

Prawo wydawcy, zgodnie z tym, co proponuje Komisja Europejska w ramach konsultacji ze wszystkimi zainteresowanymi stronami, jest prawem, którego celem będzie ochrona prawa autorskiego publikacji prasowej jako takiej, w przeciwieństwie do prawa autorskiego dotyczącego pojedynczego artykułu. Prawo to będzie dotyczyło przedruku, komunikowania szerokiemu gronu odbiorców oraz dystrybucji publikacji.

Jeżeli chodzi o pytanie dlaczego wydawcy potrzebują dodatkowej ochrony (są już przecież objęci ochroną prawnoautorską), wydawcy są mniej rozmowni. Sugerują, że należą im się prawa pokrewne, ponieważ prawa pokrewne nadawców, jak również producentów filmowych i muzycznych też są chronione.

Argumenty przeciwko dodatkowym prawom wydawców

COMMUNIA, Centrum Cyfrowe i inne podmioty zajmujące się domeną publiczną i dostępem do kultury uważają, że przyznanie dodatkowych praw jest problematyczne. Problemem związanym z prawem autorskim nie jest to, że praw jest zbyt mało, ale to, że praw jest zbyt dużo, ich zakres jest zbyt szeroki, a zasięg czasowy zbyt odległy. Truizmem jest twierdzenie, że zakres dzisiejszego prawa autorskiego nie ma odniesienia do ekonomicznej żywotności większości wytworów kultury. Przyjęcie praw pokrewnych dla wydawców prasowych jest problematyczne z poniższych powodów:

  • Ustalanie statusu prawnoautorskiego publikacji stanie się jeszcze trudniejsze, jeżeli dodatkowe prawa będą musiały zostać ustalone, zanim dzieło będzie mogło być wykorzystywane. Ten problem jest ogólnie uznany i negatywnie wpływa na wszystkich rodzajów użytkowników, w tym instytucje dziedzictwa kulturowego, badaczy, start-upy i użytkowników końcowych. Tworzenie dodatkowych praw, które wymagają ustalania, spowoduje jeszcze większe utrudnienia dla wszystkich tych grup (nawet jeżeli utrudnienia takie będą mniejsze dla większych graczy o ustalonej pozycji na rynku, którzy mogą sobie pozwolić na poniesienie kosztów związanych z ustalaniem praw).
  • Doświadczenia z prawami pokrewnymi dla wydawców w Hiszpanii i Niemczech pokazują, że wydawcy chcą wykorzystywać takie nowe prawa do ograniczania działalności innych podmiotów bądź zarabiania na tym, że inne podmioty mogą opatrywać linki do treści publikowanych krótkim tekstem – czasami składającym się z zaledwie 8 słów (większość tytułów jest jednak dłuższa). To w sposób oczywisty sprawia, że linkowanie do publikowanej treści jest uwarunkowane zgodą posiadaczy praw (lub zależy od uiszczenia opłaty licencyjnej, dlatego takie prawa nazywane są „podatkiem od linków”) i ogranicza swobodę wypowiedzi w internecie.
  • Pomimo że wielu wydawców lobbuje za wprowadzeniem takiego prawa, nie wszyscy są tego samego zdania. Niektórzy wydawcy profesjonalni uważają, że opodatkowanie linków, które przenoszą czytelników na ich strony, jest wbrew ich interesom biznesowym. Ponadto blogerzy, publikujący w otwartym dostępie i inni autorzy, którym zależy na jak najszerszym rozpowszechnieniu ich treści, nie skorzystają na prawach pokrewnych. Wprowadzenie nowego prawa negatywnie wpłynie na ich modele biznesowe, tak jak to stało się w Hiszpanii, gdzie prawo wydawcy nie podlega wyłączeniu.

Jasnym powinno być, że tworzenie dodatkowego prawa autorskiego dla wydawców nie stanowi dobrego sposobu na rozwiązanie problemów, z którymi mierzą się wydawcy w środowisku cyfrowym. Prawo to będzie mogło być wykorzystane do ograniczania działalności bądź czerpania korzyści finansowych z działalności, które dzisiaj nie są ograniczone prawem autorskim. W konsekwencji taki krok może powodować olbrzymie szkody towarzyszące związane z dostępem do informacji, swobodą wypowiedzi i innowacją w biznesie. Jeżeli nieefektywne, ale nigdy nieuchylone prawo unijne dotyczące baz danych jest jakąkolwiek wskazówką, nowe prawo dla wydawców może być nieodwracalne, nawet jeżeli oczekiwane pozytywne skutki nie nastąpią. Raz przyznane prawa bardzo trudno odebrać, a korzystanie z takiego niedopracowanego narzędzia w dynamicznym środowisku, jakim jest internet, byłoby niepoważne.

Niefortunnym jest, że dodatkowe prawa dla wydawców stały się dla Komisji jednym z zadań, które sobie wyznaczyła w ramach modernizowania prawa autorskiego. Jednakże trwające konsultacje publiczne dają nam możliwość przedstawienia naszego punktu widzenia i wyrażenia sprzeciwu. Mogą Państwo bezpośrednio odpowiedzieć na konsultacje na stronie Komisji lub za pośrednictwem łatwego w obsłudze narzędzia dostępnego na stronie youcan.fixcopyright.eu. Chcielibyśmy, aby Komisja zrozumiała, że modernizacja ram europejskiego prawa autorskiego nie może oznaczać wprowadzenia dodatkowych praw dla wydawców.



Konferencja „Cyfrowe wyzwania” coraz bliżej

European Open EDU Policy Project -

Kompetencje cyfrowe
a uczestnictwo w kulturze 13 czerwca 2016 r.
Sala Balowa, Pałac Tyszkiewiczów-Potockich,
Krakowskie Przedmieście 32, Warszawa

Szczegółowy program konferencji

13 czerwca odbędzie się trzecia edycja konferencji „Cyfrowe wyzwania”. W tym roku chcemy przyjrzeć się przede wszystkim relacji pomiędzy kompetencjami cyfrowymi a uczestnictwem w kulturze. Interesuje nas zarówno perspektywa użytkownika, jak również twórcy i – w oczywisty sposób – problem edukacji cyfrowej. Ale to nie wszystko!

Podczas konferencji przedstawimy też wyniki naszego najnowszego badania, w którym sprawdzamy, jak dostępność mobilnych urządzeń ICT wiąże się z… czytaniem. Uzyskane przez nas wyniki pozwalają w interesujący sposób uzupełnić perspektywę badań czytelnictwa prowadzonych przez Bibliotekę Narodową czy Polską Izbę Książki, zarówno w zakresie wyników, jak również zastosowanej metodologii.  Szczegółowy program konferencji jest bardzo intensywny, więc jesteśmy przekonani, że będzie inspirująco i porywająco. 

Ramowy program konferencji

  • 10.00-10.10 – Otwarcie konferencji
  • 10.10-10.30 – Prezentacje wyników badań nt. czytelnictwa
  • 10.30-11.10 – Panel dyskusyjny: Jak czytają Polacy?, moderuje prof. Mirosław Filiciak
  • 11.10-13.00 Sesja 1: Cyfrowe praktyki kulturalne
  • 13.00-13.45 – Przerwa lunchowa
  • 13.45-15.30 Sesja 2: Przełączamy na cyfrową kulturę i sztukę – perspektywa pracowników i twórców kultury
  • 16.00-18.00 Sesja 3: Uczmy (się) kompetencji cyfrowych – kształcenie kompetencji cyfrowych
  •  18.00 – Zakończenie konferencji

Odpowiedzi na wszelkie pytania nt. konferencji można uzyskać pisząc na adres: cyfrowe.wyzwania@gmail.com 

Dofinansowano ze środków Ministra Kultury i Dziedzictwa Narodowego w ramach programu Obserwatorium Kultury 2015, przy wsparciu Fundacji Orange, projekt pt. „Zmiany kultury czytelniczej w Polsce w kontekście upowszechnienia e-tekstów i urządzeń pozwalających z nich korzystać”.

Logo konferencji autorstwa OPEN COMMONS LINZ udostępnione na licencji Creative Commons.

Stanowisko Centrum Cyfrowego w sprawie blokowania stron internetowych

European Open EDU Policy Project -

Dotyczy projektu ustawy o działaniach antyterrorystycznych z 5 maja 2016 w zakresie blokowania danych informatycznych mających związek ze zdarzeniem terrorystycznym

We współczesnym świecie bezpieczeństwo musi być ważone wraz z innymi wartościami: wolnością słowa, prawem do prywatności, domniemaniem niewinności.  Przepisy kreujące infrastrukturę bezpieczeństwa muszą być precyzyjne, proporcjonalne, a przede wszystkim skuteczne. Skoro tworzą ograniczenia dla swobody ruchu czy wypowiedzi, jako społeczeństwo nie możemy pozwolić sobie na wdrażanie regulacji, które nie przynoszą dobrych rezultatów przy tego rodzaju ograniczeniach. Możliwość zablokowania dostępu do danych ponieważ mogą one mieć związek ze zdarzeniem terrorystycznym nie spełnia żadnego z warunków, które powinny być brane pod uwagę przy tworzeniu polityk bezpieczeństwa. Blokowanie jest łatwe do obejścia, nieskuteczne dla realizacji tak zdefiniowanego celu oraz otwiera możliwości nadużycia infrastruktury blokującej dla celów wykraczających poza oryginalny zamysł ustawodawcy.


Projekt ustawy antyterrorystycznej w zakresie blokowania danych informatycznych mających związek ze zdarzeniem terrorystycznym  budzi następujące zastrzeżenia:

1. Nieefektywność

Blokowanie treści w internecie nie usuwa ich trwale z sieci, a jedynie blokuje ich dostępność. W stosunku do treści o niskiej szkodliwości czy braku znamion przestępstwa jest to rozwiązanie nieproporcjonalne, a w stosunku do treści które są nielegalne nie rozwiązuje ono problemu ich ogólnej dostępności po czasie trwania blokady. Rozwiązanie to jest zarazem nazbyt restrykcyjne dla ogółu przypadków i nieskuteczne dla tych, które wymagają rzeczywistej interwencji organów ścigania. Jako takie nie realizuje celu ustawy i dlatego też nie powinno być narzędziem w walce z zagrożeniem terrorystycznym.

Blokowanie stron nie dosięgnie też ewentualnych treści o charakterze terrorystycznym, gdyż nie są one dostępne w miejscach, gdzie blokowanie treści mogłoby skutecznie zajść. Zdaniem twórców projektu proponowane rozwiązanie ma zapobiegać prowadzeniu działalności terrorystycznej przez organizacje terrorystyczne, szczególnie w kontekście instruktażu i kontaktowania się z członkami siatki terrorystycznej. Należy pamiętać, że treści udostępniane przez organizacje terrorystyczne rzadko dostępne są w tradycyjny sposób, o wiele częściej wykorzystywany jest tzw. darknet (inaczej deep net, poziom sieci niedostępny dla przeciętnego użytkownika, wymagający koszystania z określonych narzędzi i ustawień), który wymyka się krajowym regulacjom.


2. Niebezpieczny precedens

Mechanizm blokowania danych w internecie nie polega na usunięciu treści, a blokowaniu dostępu do nich poprzez filtrowanie zapytań o dostęp do danego adresu internetowego. Wprowadzenie takiego mechanizmu w przypadku jednego rodzaju danych, dodatkowo bez efektywnej kontroli sądowej, może skutkować chęcią blokowania różnych innych treści, np. pornograficznych czy hazardowych, ale także związanych z działalnością strażniczą czy aktywnością obywatelską polegającą na wyrażaniu sprzeciwu w debacie publicznej. Przepisy te tworzą podwaliny dla  cenzury prewencyjnej i będą miały negatywny wpływ na rozwój społeczeństwa informacyjnego.


3. Brak precyzyjnych definicji

Korzystanie z internetu, a przede wszystkim publikowanie,  jest formą korzystania z wolności słowa, gwarantowanej zarówno przez Konstytucję RP jak i Europejską Konwencję Praw Człowieka. Ewentualne ograniczenia tego konstytucyjnego prawa muszą spełniać zasady proporcjonalności, co nie ma miejsca w projekcie.

Po pierwsze, określenie “dane informatyczne” jest bardzo szerokie i może dotyczyć zarówno poszczególnych treści, jak i funkcjonowania całych portali internetowych, w tym również społecznościowych. W efekcie działanie Szefa ABW może doprowadzić do zablokowania protokołów, na których opierają się komunikatory (Facebook, Twitter) czy sieci anonimowej wymiany danych. Po drugie, żądanie Szefa ABW uzależnione jest tylko od związku danych z przestępstwem o charakterze terrorystycznym – definicja tego pojęcia jest również bardzo szeroka i niedookreślona. W proponowanym projekcie zarówno pojęcie “danych informatycznych” jak i “przestępstw o charakterze terrorystycznym” definiowane będzie przez Szefa ABW, przez co skutkować może szeroką kontrolą zarówno treści, jak i sposobu funkcjonowania internetu.

4. Brak adekwatnej kontroli sądowej

Jeśli ustawa wejdzie w życie, Szef ABW za zgodą prokuratora generalnego będzie mógł zablokować każdą treść dostepną w internecie, bez względu na jej charakter czy dostępność, biorąc pod uwagę jedynie dostrzeżone przez siebie  powiązanie ze zdarzeniem o charakterze terrorystycznym. W proponowanej regulacji następcza kontrolna sądowa jest przewidziana, jednak realnie będzie miała iluzoryczny charakter. Blokada dostępności danych informatycznych znoszona będzie w przypadku nieudzielenia przez sąd w terminie 5 dni zgody na zarządzenie zablokowania dostępności określonych danych informatycznych – biorąc pod uwagę dynamikę wymiany informacji we współczesnym świecie 5 dni oczekiwania na następczą kontrolę sądową ograniczy wolność słowa i zakłóci funkcjonowanie różnych form aktywności w internecie.


5. Brak kontradyktoryjności postępowania

Postanowienia Sądu Okręgowego w Warszawie, dotyczące zarówno zatwierdzenia żądania Szefa ABW, jak i przedłużenia blokowania danych informatycznych, może być zaskarżone wyłącznie przez Szefa ABW. Brak jest jakiejkolwiek konstradyktojności postępowania – zażalenia nie może złożyć zarówno osoba, której dane będą blokowane, ani też żaden inny podmiot działający w interesie społecznym. Narusza to zasadę równego traktowania stron postępowania poprzez uprzywilejowanie Szefa ABW.

Tyler Menezes, CC-BY-SA, https://www.flickr.com/photos/tylermenezes/2656043491


6. Brak transparentności blokowania danych

Ustawa nie przewiduje żadnych mechanizmów gwarantujących transparentność działań Szefa ABW. Osoba, której dane zostaną zablokowane, nie tylko nie zostanie poinformowana o podstawie prawnej czy ewentualnych zarzutach, ale nawet o samym fakcie zablokowania danych w internecie. Poza tym, poza następczą kontrolą sądową, nie przewidziano żadnych mechanizmów społecznej kontroli np. w postaci publikowania danych nt. blokowania na wniosek Szefa ABW.


7. Wprowadzenie niepewności prawnej dla przedsiębiorców działałających w internecie

Należy pamiętać, że internet to nie tylko środowisko komunikacji, ale również przestrzeń prowadzenia działałności biznesowej. Polska ma ambicje by być krajem wspierającym e-handel i e-usługi. Jednakże wprowadzenie rozwiązań przewidzianych w projekcie skutkować będzie brakiem pewności prawnej prowadzenia działałaności gospodarczej on-line – zablokowanie możlliwości prowadzenia biznesu nawet na 5 dni jest równoznaczne ze stratami, na które wiele firm nie może sobie pozwolić. Bez jasnych ram prawnych działalności w internecie, nowe firmy będą zakładanie za granicą, a nie w Polsce.


Ustawa antyterrorystyczna to „waterboarding” dla wolności słowa w sieci

European Open EDU Policy Project -

Czym jest dla dziennika internetowego 5 dni bez możliwości publikacji w internecie? To 5 dni utraty czytelników, 5 dni bez możliwości komentowania bieżących wydarzeń. To wymierne straty z powodu braku zysków z reklam. Dla blogera to straszak – widzimy cię, możemy ci zamknąć usta. Do tego dochodzi potencjalnie oskarżenie o działalność terrorystyczną. Ustawa antyterrorystyczna może sprawić, że internet, ta wielka agora debaty publicznej, stanie się poligonem cenzury prewencyjnej. Władza już teraz apeluje, żeby w przededniu ogłoszenia ratingu dla Polski powstrzymywać się od negatywnych komentarzy o sytuacji w kraju. Czy nie prościej te komentarze po prostu zablokować? Choćby i na 5 dni.


Co się znajdzie w nowym prawie?

Projekt ustawy antyterrorystycznej* daje Szefowi Agencji Bezpieczeństwa Wewnętrznego możliwość zarządzenia zablokowania “danych informatycznych mających związek ze zdarzeniem o charakterze terrorystycznym”. Będzie on mógł zażądać tego samego od “administratora systemu teleinformatycznego”. Żeby podjąć takie działanie Szef ABW będzie potrzebował jedynie pisemnej zgody Prokuratora Generalnego.

Ustawa to narzędzie do „podtapiania” niewygodnych mediów, osób i wypowiedzi. Na tyle dokuczliwie i szybko, by uniemożliwić autentyczną swobodę wypowiedzi.

Co to jest zdarzenie o charakterze terrorystycznym? Być może takie, które niesie zagrożenie masowego rażenia, wyjątkowo okrutnej przemocy? Być może jest to czyn, który zagraża ładowi społecznemu i zasadom współżycia społecznego? A może akt społecznego sprzeciwu z użyciem internetu do mobilizacji obywateli? Jak bezpośredni powinien być związek między “zdarzeniem” i “danymi” – czy blokada może dotyczyć tylko treści publikowanych przez domniemanych terrorystów? Co z ich omówieniami i medialnymi reakcjami na zdarzenie?

Na tego rodzaju pytania będzie odpowiadać Szef ABW, podejmując decyzje o zablokowaniu konkretnych stron internetowych. Nie wiemy, jak wielkie będzie miał pole do interpretacji tych ogólnych zapisów. Sąd zweryfikuje czy miał rację dopiero 5 dni od zablokowania treści.

Czym i komu to grozi?

Łatwo można sobie jednak wyobrazić zablokowanie nie tylko pojedynczych komentarzy ale też całych portali społecznościowych, blogów czy e-wydań gazet. Operator telekomunikacyjny włączy po prostu odpowiedni filtr. Tego rodzaju filtry zakładane na wniosek ABW staną się infrastrukturą blokującą – potężnym narzędziem, które będzie można  wykorzystywać w innym celu. Wystarczyło będzie określenie go w kolejnej ustawie i blokowane będą w zasadzie dowolne treści na życzenie ustawodawcy. Także te, które nie mają nic wspólnego z terroryzmem, a są po prostu wyrazem czyichś poglądów.

Ustawa antyterrorystyczna w proponowanym kształcie to szalenie niebezpieczne narzędzie w rękach każdej władzy. Nie wyeliminuje terroryzmu, ponieważ terroryści nie namawiają się na „Naszej Klasie”. Nawet gdyby tak było, należy ich zidentyfikować i zatrzymać, a nie tracić czas na blokowanie ich komunikatów czy “filmików instruktażowych”. Wiedzą to wszystkie służby. Ustawa da im jednak narzędzie do „podtapiania” niewygodnych mediów, osób i wypowiedzi. Nie na zawsze i nie całkowicie – blokowane treści pozostają w internecie, tyle że niewidoczne. Ale na tyle dokuczliwie i szybko, by uniemożliwić autentyczną swobodę wypowiedzi.

Co jeszcze można (trzeba!) zrobić?

Władza nie chce publicznej krytyki tego projektu, przepychając go w szybkim tempie przez proces legislacyjny bez czasu na debatę i konsultacje publiczne.

Wzywamy dziennikarzy i dziennikarki, media obywatelskie i komercyjne, blogerów i blogerki, publicystów i publicystki do informowania swoich widzów i czytelników o tym, jakie zagrożenia dla wolności słowa niesie ze sobą ustawa nazywana “antyterrorystyczną”. Blokowanie treści nie zatrzyma ani jednego terrorysty, za to – nieodpowiedzialnie wykorzystywane – odetnie Waszej publiczności dostęp do wiedzy i informacji. Media narazi na straty i oskarżenia o działalność o charakterze terrorystycznym.

Kiedy nie można zrobić zbyt wiele, trzeba robić tyle, ile można. Zareagujmy publicznym sprzeciwem na tworzenie prawa, które może stać się bezpośrednim zagrożeniem dla wolności wypowiedzi. Nie pozwólmy, by ta zmiana przeszła bez echa.


Anna Mazgal (Centrum Cyfrowe)

Katarzyna Szymielewicz (Fundacja Panoptykon)

Krzysztof Izdebski (Fundacja ePaństwo)


* właściwie: projekt ustawy o  działaniach antyterrorystycznych z 5 maja 2016 r.

Principles for digital development

GoOpen.no -

For any ICT-based project it is crucial to develop technology based on good and sustainable principles, implementing solutions that are user driven and based open standards at the same time addressing concerns like universal design and privacy. There should be no exception for all the projects targeting users in developing countries.    

A growing number of youth in developing countries are online and thereby possibly connected to learning resources on the Internet. By 2025, as many as 4.7 billion people worldwide will be online. Compared to today, about 75 percent of the increase will come in emerging economies. An increasingly digital world brings unprecedented opportunities for innovation, entrepreneurship and job creation. This will result in a large number of projects that develop technologies over the next decade and significant investment from NGOs and governmental organizations.

But to reap these benefits, it will be incredibly important to ensure that technology, data and digital resources are developed based on a sustainable model.

Donor and multilateral organizations have been discussing how to surface and spread best practice in the use of ICT tools as part of development programming for at least a decade. These discussions culminated in the UNICEF Innovation Principles of 2009, the Greentree Principles of 2010, and the UK Design Principles, among others.

At the end of 2015 I came across a project called The Principles of Digital development working to consolidate these efforts. The Principles for Digital Development draw from the processes mentioned above, and are the result of consultation with The Bill and Melinda Gates Foundation and large number of NGOs and governmental organizations.

The Principles for Digital Development are “living” guidelines that can help development practitioners integrate established best practices into technology-enabled programs. They are written by and for international development donors, multilateral organizations, and implementing partners, and they are freely available for use by all. The Principles are intended to serve as guidance rather than edict, and to be updated and refined over time.

The nine principles are:


If you are in the planning stages of an app, a portal or any other project involving technology you should take your time and study the documents and guidelines at digitalprinciples.org/ 

Open Textbooks 4 Africa

Creativecommons.org -

Open Textbooks for Africa Logo, by: Kelsey Wiens, CC BY 4.0

This is a guest blog post written by Kelsey Wiens, founder of Open Textbooks for Africa and public lead for Creative Commons South Africa. On March 11-12, 45 experts from around the world and across South Africa met to discuss opportunities for Open Textbooks in Africa. The goal of the event was to support the adoption and adaption of currently available open textbooks, as well as build and design a South African focused open textbook.



The first Open Textbook Summit in Africa was hosted in Cape Town on March 11-12 by Open Textbooks for Africa (OT4A). This two-day event bought together 45 local University lecturers, open education practitioners, and open textbooks experts from around the world. OT4A is a pilot project designed to support the adoption and adaption of currently available open textbooks as well as build and design our own textbooks to showcase African knowledge to the world.

Day one included a panel discussion and debate on the challenges of open textbooks in the South African context. Day two was a workshop to develop an astronomy open textbook with a global south perspective. Textbooks currently used by the Astronomy department at the University of Cape Town feature the sky from the northern hemisphere (i.e., upside down). The working group for the open Astronomy textbook has met twice since the workshop, established a work plan, and is anticipating a classroom usable draft by the end of 2016 – for use in the first term of 2017.

The physics group, also based out of the University of Cape Town, is adapting an OpenStax (CC BY licensed) open textbook. They have listed the OpenStax Physics open textbook as a “recommended book” in the second semester of 2016; aiming for full adoption in classrooms in 2017. This shift will save over 180,000 South African Rands to 150 first year students in first year (equivalent to US$11,860) at one institution over one academic year.  Additional meetings are planned with University of Witwatersrand, University of Western Cape & TSiBA to promote open textbooks.

For more details and to inquire about how your university can use open textbooks, please contact OT4A at: https://ot4a.org

The post Open Textbooks 4 Africa appeared first on Creative Commons blog.

Platformy internetowe: Komisja Europejska chce, aby internet upodobnił się do mediów tradycyjnych

European Open EDU Policy Project -

Artykuł autorstwa Paula Kellera został opublikowany na blogu Stowarzyszenia Communia 3 maja 2016.

W ubiegłym tygodniu Politico opublikował projekt-przeciek komunikatu Komisji o platformach internetowych. Jak sugeruje tytuł, jest to kolejny krok Komisji na drodze do stworzenia europejskiego jednolitego rynku cyfrowego. Pomimo że dokument bezpośrednio nie dotyczy kwestii związanych z prawem autorskim, omawia on ważne skutki dla przyszłości tego prawa w UE (i poza nią).

Według Komisji komunikat uwzględnia wkład, który Komisja do tej pory otrzymała w odpowiedzi na ubiegłoroczne konsultacje na temat „Środowiska regulacyjnego dotyczącego platform, pośredników internetowych, danych i chmury obliczeniowej oraz ekonomii współpracy”. W listopadzie, kiedy zachęcaliśmy naszych czytelników do wzięcia udziału w tych konsultacjach, wskazaliśmy, że Komisja rozważała podjęcie środków, które obejmowały wprowadzenie prawa pokrewnego wydawców (podatek od linków), ograniczenie prawa do linkowania i zmiany ograniczenia odpowiedzialności dla pośredników internetowych.

Stanowisko Centrum Cyfrowego w konsultacjach nt. pośredników internetowych.

Projekt potwierdza te oczekiwania – przynajmniej w części. Zawiera on takie wyrażenia, które wydają się zmierzać do podważenia istniejących ograniczeń odpowiedzialności dla pośredników internetowych. Ponadto w dokumencie pojawiają się wyraźne odniesienia do wprowadzenia prawa pokrewnego wydawców – ancillary copyright.


Atak na odpowiedzialność pośredników internetowych jest atakiem na otwarty internet

Jeżeli chodzi o prawa autorskie, najciekawszą częścią komunikatu jest sekcja zatytułowana „Zobowiązanie platform internetowych do działania w sposób odpowiedzialny”. W tej sekcji Komisja wydaje się pochwalać istniejący reżim odpowiedzialności pośredników internetowych.

Pomimo że obowiązujący reżim odpowiedzialności pośredników internetowych, jak wyszczególniono w dyrektywie o handlu elektronicznym, został stworzony w czasie, kiedy platformy internetowe nie działały na taką skalę, jak to ma miejsce obecnie, stworzył on środowisko regulacyjne, które w sposób znaczący umożliwiło im rozwój. Częściowo wynika to z harmonizacji wyłączenia wszystkich rodzajów platform internetowych z ponoszenia odpowiedzialności za nielegalne treści i działania, których nie kontrolują. Konsultacje publiczne pokazały silne poparcie istniejących zasad dyrektywy o handlu elektronicznym, ale również potrzebę doprecyzowania niektórych kwestii, w tym zakresu safe harbour dla odpowiedzialności pośredników, również w przypadku platform internetowych. Zważywszy na powyższe, Komisja zamierza zachować istniejący reżim w zakresie odpowiedzialności.

Niestety, Komisja chce powiedzieć jedną rzecz, ale zrobić coś zupełnie innego. Pół strony dalej Komisja zauważa, że pojawiły się nowe formy dystrybucji treści […], w których, na przykład, treść jest dystrybuowana poprzez platformy, które udostępniają treści chronione prawem autorskim zamieszczone przez użytkowników końcowych. Pomimo że takie serwisy przyciągają coraz więcej użytkowników i uzyskują korzyści ekonomiczne z tytułu dystrybucji treści, rośnie obawa, czy wartość wygenerowana przez niektóre z tych nowych form dystrybucji treści w internecie jest sprawiedliwie dzielona pomiędzy dystrybutorów i właścicieli praw.

Summer Day, Johan Hendrik Weissenbruch, domena publiczna, http://hdl.handle.net/10934/RM0001.COLLECT.6522


Jednakże jak zauważyli nasi koledzy z EDRi, twierdzenie charakteryzujące platformy jako aktywnie „udostępniające” treści przekazywane przez użytkowników końcowych jest wymownym odstępstwem od tego, jak tego rodzaju podmioty pośredniczące były do tej pory traktowane. „Udostępnianie” byłoby uznawane za działanie kontrolowane przez platformy i jako takie nie byłoby objęte wyłączeniem przewidzianym przez dyrektywę o handlu elektronicznym, która ogranicza odpowiedzialność platform za akty bierne, takie jak hosting treści przekazanych przez użytkownika. Brzmienie zaproponowane przez Komisję wydaje się celowe i oznaczałoby, że platformy udostępniające treści nie będą objęte wyłączeniem odpowiedzialności i że dałoby to właścicielom praw dodatkową siłę nacisku w momencie negocjacji ustaleń licencyjnych z platformami, które byłyby objęte takim wyłączeniem.

Pomimo że może to być zamierzony skutek działań Komisji w zakresie zapewniania „sprawiedliwej dystrybucji” wartości, narusza on fundamentalne ramy, w których platformy internetowe mogą działać jako otwarte kanały publikacji, oferowane wszystkim użytkownikom internetowym. W obliczu nieugiętej presji ze strony właścicieli praw, aby zmierzyć się z różnicą w wartości, którą oni sami dostrzegają, Komisja wydaje się zmierzać do wylania dziecka z kąpielą.

Wprowadzenie odpowiedzialność za treści, które są udostępniane przez użytkowników końcowych, prawdopodobnie będzie oznaczało koniec otwartego charakteru tych platform. To dlatego, że zgodnie z nowymi zasadami, platformy będą zachęcane do tego, aby proaktywnie filtrować wszelkie treści, za które mogą zostać pociągnięte do odpowiedzialności (lub które im się nie podobają). Taki stan rzeczy nie tylko ogranicza swobodę wypowiedzi użytkowników, ale oznacza również, że platformy działające w Europie będę zdecydowanie mniej aktywne. Tym, co odróżnia media społecznościowe i platformy udostępniające treści od tradycyjnych platform wydawniczych, jest to, że nie ograniczają one użytkownikom internetowym możliwości wypowiadania się. Przeróbki i memy są bardzo liczne na tych platformach, ponieważ nie ma strażników prawa autorskiego, którzy z pewnością odrzuciliby większość takich wyrazów twórczości z uwagi na odpowiedzialność za publikację tego rodzaju treści na ich platformach. W konsekwencji wszyscy stracą, również przedsiębiorcy europejscy, którym trudniej będzie tworzyć konkurencyjne platformy.


Powrót do kontroli wydawców

Niestety, podważanie istniejących ograniczeń dotyczących odpowiedzialności zawartych w dyrektywie o handlu elektronicznym, nie jest jedynym rozszerzeniem zakresu prawa autorskiego, które Komisja chce wprowadzić. Ta sama sekcja projektu, który wyciekł, mówi o tym, że w kolejnym pakiecie dotyczącym prawa autorskiego, który zostanie przyjęty jesienią 2016 roku, Komisja będzie dążyła do zapewnienia sprawiedliwego podziału wartości generowanych przez dystrybutorów internetowych w zakresie treści objętych ochroną prawnoautorską przez platformy internetowe, których działalność opiera się na zapewnianiu dostępu do treści chronionych prawem autorskim.

Zakres tego stwierdzenia jest rozległy, jako że niemal wszystkie platformy współpracujące z użytkownikami końcowymi w jakiejś mierze „są oparte na zapewnianiu dostępu do treści chronionych prawem autorskim”. Ponadto stwierdzenie to sugeruje, że obecny podział wartości nie jest sprawiedliwy i że możliwe jest, aby Komisja w jakiś sposób ustaliła, czym jest sprawiedliwa dystrybucja wartości. Pomimo że język projektu konsultacji wydaje się być w tym przypadku celowo niejasny, nie trzeba być geniuszem analizy, aby zrozumieć, że jej celem jest zapewnienie uzasadnienia dla wprowadzenia dodatkowych praw autorskich dla wydawców.

W tym świetle bieżące prace UE nad zmianami ram prawa autorskiego, których celem będzie wspieranie jednolitego rynku cyfrowego, zaczynają coraz mniej wyglądać na próbę zmodernizowania prawa autorskiego, aby lepiej współgrało z technologicznymi, społecznymi i kulturalnymi możliwościami oferowanymi przez internet. Wręcz przeciwnie, coraz bardziej wygląda na jawną próbę spowodowania, aby internet dostosował się do tradycyjnych modeli dystrybucji treści, w których kontrola jest scentralizowana w ramach małych grup wydawców i innych dostawców pośredniczących.

Kuracja dobrą treścią czyli jak dawkować otwarte zasoby edukacyjne?

European Open EDU Policy Project -

Co naprawdę zmienia edukację? Nowe technologie w rękach uczniów i nauczycieli? Łatwy dostęp do wiedzy z całego świata (od Wikipedii po YouTube)? A może konkretne podręczniki i książki? Być może wszytko to po trochu ma wpływ na jej kształt, ale prawdziwa, dobra zmiana, odbywa się poprzez praktyki korzystania z tych zasobów: infrastruktury, sprzętu i dostępu do wiedzy. Być może dlatego na konferencji OER16, jednej z największych w Europie poświęconych otwartym zasobom edukacyjnym, prawie nie było wystąpień o nowych treściach i niewiele o nowych technologiach. Kluczowym tematem była kultura oraz praktyki korzystania z zasobów. Temu właśnie poświęcone były również dwa wystąpienia, które, jako Centrum Cyfrowe, prezentowaliśmy na tej konferencji. Pierwsze o politykach otwartości w szkołach, drugie o tym jak dobierać i prezentować zasoby instytucji kultury by były przydatne w edukacji.

Zasoby a praktyki

Patrząc z polskiej perspektywy, zdominowanej w ostatnich latach przez e-podręczniki Cyfrowej Szkoły i Nasz Elementarz, łatwo zapomnieć, że otwarte zasoby edukacyjne mają już bardzo ugruntowaną pozycję w wielu krajach na świecie. Dostępność materiałów edukacyjny na wolnych licencjach traktuje się już za oczywistą. Nieoczywiste, a zatem ciekawsze jest to, jak są wykorzystywane w szkole i poza nią. Nie oznacza to, że warto narzekać na Cyfrową Szkołę. Przysłuchując się pomysłom na prowadzenie cyfrowej edukacji rozwijanym w innych państwach łatwo zrozumieć, że konstrukcja tego projektu (dofinansowanie infrastruktury, sprzętu, doszkolenie i tworzenie sieci wsparcia z TIK dla nauczycieli i otwarte zasoby w postaci e-podręczników) była naprawdę świetna i pozostaje aktualna. Implementacja, dość pośpieszna, w efekcie przeprowadzona została nierówno i nie bez kontrowersji. Niestety, bez udanego komponentu składającego się ze szkoleń i bez wsparcia nauczycieli, e-podreczniki pozostają dość statycznymi zasobami, z których aktywnie (przerabiając je i tworząc na ich bazie nowe treści) korzysta niewielka grupa zaawansowanych nauczycieli. Same otwarte treści, nawet dobrej jakości i dostępne na przyjaznej i użytecznej platformie, nie są w stanie zmienić w szkole zbyt wiele.

Rozumieją to Szkoci, którzy w edukacji ustawicznej, skupiają się tym, jak animować praktyki szybkiej wymiany i tworzenia wiedzy w społeczności (np. podczas edukacji lekarzy, pielęgniarzy i pacjentów), by sprawnie reagować i doskonalić proces uczenia się, opieki i leczenia. Otwarte zasoby, choć są efektem, tutaj znajdują się na drugim planie, ich tworzenie jest tylko elementem ułatwiającym proces społecznościowego wytwarzania i wykorzystywania wiedzy. Brzmi znajomo? Podobnie o uczeniu myśli się w takich projektach, jak Szkoła z Klasą 2.0, gdzie zachęca się uczniów do współuczestnictwa w tworzeniu materiałów edukacyjnych. Tego typu podejście ma znacznie większe szanse na to, by w trwały sposób wpłynąć na uczestników i nauczyć ich aktywnego podejścia do wiedzy i zasobów edukacyjnych. Nie jest to jednak proste zadanie.

Praca z użytkownikiem

Jedną z kluczowych praktyk powiązanych z otwartymi zasobami jest kopiowanie. To właśnie kopiując zwykle dokonujemy poprawek czy drobnych zmian w cudzych materiałach. Niestety, większość nauczycieli i nauczycielek nie postrzega tych zmian jako współtworzenia i dodawania nowej wartości. Takie małe kontrybucje są zaś najważniejsze, ponieważ mają potencjał szybkiego doskonalenia zasobów oraz budowania w autorach poczucia sprawczości. Jak to osiągnąć w ramach serwisu czy repozytorium z otwartymi zasobami? Oczywiście, warto zacząć od pracy nad użytecznością naszych narzędzi, badać i pytać użytkowników podczas projektowania usług, a nie po. Wiele projektów OZE, zwłaszcza tych finansowanych lub tworzonych przez instytucje publiczne, nie poświęca wystarczająco dużo uwagi tak zwanemu UX (user expierence). Podkreślają to nawet zespoły tworzące duże projekty, jak chociażby norweski NDLA czy brytyjski JORUM (największe repozytorium zasobów do edukacji wyższej i zawodowej), które przechodzi właśnie radykalną transformację, by w efekcie przypominać proste sklepy z aplikacjami (jak Apple app store czy Google Market) zamiast tradycyjnego repozytorium.

Drugim znaczącym trendem, w ramach którego próbuje się rozwiązać ten problem, jest próba przełożenia pracy nad oprogramowaniem o otwartym kodzie źródłowym (open source) na pracę z zasobami. W szczególności czerpanie z bardzo popularnego wśród programistów serwisu GitHub, pozwalającego na łatwe kopiowanie i tworzenie nowych wersji kodu i włączanie (lub nie) dokonanych zmian do jego oryginalnej wersji. Choć model GitHub’u (oparty o tzw. fork, ang. rozwidlenie) brzmi bardzo technicznie, to da się go zastosować w prosty sposób nawet do takich materiałów, jak scenariusze lekcji, czego świetnym przykładem jest niemiecki serwis tutory.de. Można się spodziewać, że podobne funkcje – ułatwiające kopiowanie i pracę z w ramach jednego narzędzia (bez konieczności pobierania materiałów)- będą coraz ważniejsze w repozytoriach otwartych zasobów edukacyjnych.

Jak dobrze podać otwarte treści

Podczas szkoleń z otwartych zasobów, których prowadzę dziesiątki rocznie, uczestnicy oczekują na koniec gotowców, zestawu najważniejszych linków. Nie tylko do najlepszych otwartych zasobów z ich dziedziny, ale również takich, które są już sprawdzone, działają i z którymi praca nie wymaga bolesnego przechodzenie przez trudny interfejs czy długotrwałe logowanie. Pracując w dziale Otwartej Kultury wiemy doskonale, że instytucje kultury (i wiele edukacyjnych) rozumie potrzeby użytkowników, a jednak w praktyce nadal często z różnych względów nie są w stanie wyjść im naprzeciw. W wielu prezentacjach podczas OER16 pojawiał się wątek, który potwierdza nasze obserwacje: problemem jest przecenianie kompetencji cyfrowych swoich kluczowych odbiorców i niewłaściwe szacunki dotyczące ilości czasu, jaką mogą oni poświęcić na pracę z zasobami. Instytucje kultury, które same zmagające się z problemami i niepewnością dotyczącą praw autorskich, nie dają również pewności odbiorcom, dla których terminy z ustawy o prawie autorskim i 6 licencji Creative Commons to często zbyt wiele.

By nie tracić potencjału, jaki posiadają zasoby instytucji edukacyjnych i instytucji kultury, warto rozważyć inne sposoby prezentowania treści niż tylko pozostawianie użytkownika/użytkowniczki sam na sam z naszym repozytorium, cyfrową biblioteką czy muzeum. Świetnymi, alternatywnymi kuratorami treści mogą być sami użytkownicy, przy wsparciu narzędzi, z których korzystają na co dzień: od Facebooka przez Pinterest, aż po ich własne blogi. Wspieranie tych najaktywniejszych kuratorów i kuratorek może pomóc instytucji w promowaniu swoich zasobów i docieraniu to tych, którzy nie chcą przeglądać całości kolekcji, a szukają szybkiego wsparcia we własnej pracy (np. 10 najlepszych zdjęć samolotów z domeny publicznej). By „content curation” zadziałało potrzebujemy jednak sami dawać tego dobre przykłady (co robi np. Polona na swoim blogu) lub narzędzia, które to ułatwią (opisywane już przez nas Rijksmuseum udostępnia Rijkstudio do prostej pracy z ich kolekcją).

Jednym z najciekawszych przykładów tego, jak praca z cyfrowymi zasobami może być również procesem edukacyjnym jest kurs cyfrowego opowiadania historii (digital storytelling) DS106 z University of Mary Washington, który prezentował jego współtwórca Jim Groom. Strona kursu za pomocą systemu tagów wyłapuje aktywności uczestników w całej sieci i archiwizuje je, niezależnie od tego gdzie są publikowane. Równocześnie uczestnicy uczą się samodzielnie publikować w sieci, ale i odkrywać unikalne treści, od archiwów po dostępne w sieci współczesne treści kultury. Wiele z odkryć studentów stało się ważnymi informacjami i trafiło do masowych mediów promując nieznane archiwalia i ich remiksy. W tym jednym przykładzie widać jak kwestie kompetencji cyfrowych, prawa autorskiego i otwartości zasobów oraz odpowiednich i prostych rozwiązań technicznych mogą zadziałać na rzecz edukacji. Nie zadbanie w równym stopniu o nie wszystkie nie musi oznaczać fiaska repozytorium z otwartymi zasobami, ale z pewnością nie będzie to pełne wykorzystanie potencjału nie tylko zasobów, ale również naszych odbiorców.

EU pushing ahead in support of open science

Creativecommons.org -

Laboratory Science—biomedical, by Bill Dickinson, CC BY-NC-ND 2.0

April saw lots of activity on the open science front in the European Union. On April 19, the European Commission officially announced its plans to create an “Open Science Cloud”. Accompanying this initiative, the Commission stated it will require that scientific data produced by projects under Horizon 2020 (Europe’s €80 billion science funding program) be made openly available by default. Making open data the default will ensure that the scientific community, companies, and the general public can enjoy broad access (and reuse rights) to data generated by European funded scientific projects. The Commission’s actions in support of open science contrasts with the approach taken by the Member States, who—although none deny the momentum to push for “open by default”—are being much more cautious in developing and publishing open science policies.

Also in April, the Dutch EU Presidency hosted an open science conference in Amsterdam. One outcome of the conference was a collaboratively developed document called the Amsterdam Call for Action on Open Science. The call for action advocates for “full open access for all scientific publications”, and endorses an environment where “data sharing and stewardship is the default approach for all publicly funded research”.

The 12 action items laid out in the document push to increase support for open science in Europe. We offered suggested improvements to a few of the proposed actions. First, in response to the item to facilitate text and data mining of content, we said that text and data mining (TDM) activities should be considered outside the purview of copyright altogether. In other words, text and data mining should be considered as an extension of the right to read (“the right to read is the right to mine”). However, as others have pointed out, the fact that the InfoSoc and Database directives have not been implemented uniformly across all Member States indicates a need to adopt a pan-European exception in order to provide clarity to those wishing to conduct TDM. We noted that any exception for text and data mining should cover mining for any purpose, not just “for academic purposes.” In addition, a TDM exception should explicitly permit commercial activity. Finally, we said that terms of use, contractual obligations, digital rights management, or other mechanisms that attempt to prohibit the lawful right to conduct TDM should be forbidden.

Second, we questioned why the item to improve insight into IPR and issues such as privacy needs to take into consideration activities that “will ensure that private parties will still be able to profit from their investments.” We noted that all of the proposed actions are supposed to serve the identified pan-European goal of full open access to all scientific publications.

Third, we commended the action to adopt open access principles. However, we suggested that any principles developed should tackle a wider set of issues than those identified: “transparency, competition, sustainability, fair pricing, economic viability and pluralism.” We said that open access principles should take into account the long-standing principles described by the Budapest Open Access Initiative, and its 10-year update, which includes recommendations on public policy changes, licensing, infrastructure support, and advocacy. In addition, we said that the stakeholders involved in the development of any principles should include researchers, students, and the public.

Finally, on the item of how to involve researchers and new users in open science, we urged researchers to actively engage with other scientists, citizens, and non-traditional audiences. Part of this change means that academics and policymakers need to stop characterizing these other groups as “users [who] might get lost in their search for information, or draw wrong conclusions.” If we presume a default of open, we need to get comfortable with sharing—which sometimes means giving up some control—so that others can benefit. With openness in policy and practice, the communication of science can benefit not only its intended audience, but promote novel and interesting types of re-use across disciplines and and by unconventional users.

The post EU pushing ahead in support of open science appeared first on Creative Commons blog.

Join CC in supporting the International Day Against DRM

Creativecommons.org -

Image credit Brendan Mruk/Matt Lee, CC BY-SA

Today is the International Day Against DRM, a global campaign to raise awareness about the harms of restricting access to legally-acquired content using digital restrictions management (DRM). DRM consists of access control technologies or restrictive licensing agreements that attempt to restrict the use, modification, and distribution of copyright-protected works. Defective by Design says, “DRM creates a damaged good; it prevents you from doing what would be possible without it.”

CC has always attempted to minimize the negative effects of DRM. All the Creative Commons licenses forbid users of those works from adding DRM or other technological measures that would restrict others from using the work in the same way.

More and more creators have been removing the digital locks from their works and experimenting with new business models. At the same time, we see copyright law being misused in service of controlling access and use of legally-acquired content. For example, last year the agricultural machinery manufacturer John Deere attempted to use U.S. copyright law to restrict access to the software code on their tractors. Specifically, John Deere said that provisions of the Digital Millennium Copyright Act allows them to limit farmers’ ability to inspect and modify software code to fix or enhance the equipment the farmers already own. This is just one example of how DRM has been used to restrict user rights. Luckily the Library of Congress has again adopted a set of exemptions to the DMCA rule that forbids the circumvention of access controls. This way, users can bypass DRM and take advantage of the rights granted to them under the law. However, the list of categories of exemptions is quite limited, and requires interested parties to submit new evidence every three years in order to be granted a renewal.

Another worrying trend is the inclusion of DRM provisions within international trade agreements. And negotiators are pushing DRM anti-circumvention separate from any connection to the effective enforcement of copyright laws. For example, the Trans-Pacific Partnership (TPP) adopts criminal penalties for circumventing digital rights management on works, and treats this type of violation as a separate offense regardless of any copyright infringing activity on the underlying content. It is a threat to users’ abilities to use and manipulate the technologies and products they legally own.

We need to end DRM. Get involved in the International Day Against DRM! You can find an event, write a blog post, create a video, translate graphics, and join the discussion. Digital freedom depends on the right to tinker, the right to access information and knowledge, and the right to re-use our shared cultural commons.

The post Join CC in supporting the International Day Against DRM appeared first on Creative Commons blog.

Active OER: Beyond open licensing policies

European Open EDU Policy Project -

In 2015, the Polish government launched an online repository of open, Creative Commons Attribution-licensed e-textbooks, covering the core curriculum for primary and lower secondary education. With this goal achieved, we ask ourselves: is our work done? After five years, open education activists finally saw their advocacy work bear fruit. In parallel, the government changed the textbook funding model, which translated into massive cost savings for parents and students. It became apparent that this might be just the first step in fully achieving the potential for Open Educational Resources (OER) in education. We needed to answer ourselves, do we just need textbooks that parents and students don’t have to pay for, or do we need educators and learners actively engaging with resources, and trying out new pedagogies?

The issue surfaces from time to time in discussions on OER policies, but not often enough. We need to move beyond strategies that ensure open availability of content, and supplement them with active policies that support engagement of educators and learners with open resources. Scale of usage, and not just the number of available resources, should be our key metric of success.

Just free, or also open?

In February, at the annual meeting of the OER community, organised by the Hewlett Foundation,David Wiley and John Hilton III organised a discussion on “free vs. open”. The terminology itself was a bit confusing, because by “free” they meant “freely available”, and by “open” they meant allowing the “5 Rs” of active reuse of content. Such use of terms would cause a violent outburst from any orthodox Free Software advocate, since that community has clear definitions of “libre” and “gratis”. But the strange choice of key terms made sense in a way—it drew our attention from the typical way we have been naming things to the problem at heart of OER developments.

We’ve spent too much time arguing about the virtues of “libre” vs. “gratis”, which usually are rooted in moral arguments centered around the value of freedom. Not enough effort has been made to relate the value of OER to real-life educational challenges and the  everyday practices of educators and learners. The OER movement, like much of the open movement, has not paid enough attention to the actual value that openly-licensed resources provide to their users—in such as way that is defined in more precise terms than a potential for greater personal freedom. (This issue has been raised by John Wilbanks in his keynote at the OpenEd conference in 2014).

Wiley and Hilton rightly asked participants of the discussion: what do we gain from policies that lead to the provision of freely available resources? And how do we support open use of resources? The conversation is timely: OER policies are gaining important footholds in the United States. On the one hand, the federal government is committing to making openly available the educational content funded with public tax dollars. Also, at the state level—in particular colleges—educational systems are switching from proprietary to open resources, with the “Z degree” (zero resource cost college degree) leading the way. Using the terms of the debate, these are “gratis”, but not necessarily “libre” policies.

Strong and weak forms of open policies

The same challenge became clear to me over the last five years, as the Polish government has been implementing its open textbooks program. In 2011, Poland adopted a strong open model, which ensures legal openness (through open licensing), technical openness (for example use of open formats and dealing with accessibility issues) and which makes content available with no costs for end users. Polish open textbooks are available for free, in open formats, and under an open license. This is different from a weak open model, in which open licensing is not used.

This weak open model has been for almost two decades at the heart of the Open Access model of scientific publishing, in which academic research articles published in scholarly journals are made available to freely access and read (without carrying a specific open license), typically after an embargo period. Yet in recent years we see a shift toward strong openness in Open Access publishing. This has been explicitly expressed through the re-formulation of principles at the 10th Anniversary of the Budapest Open Access Initiative.

Open licensing ensures strong openness by ensuring, through legal means, rights defined in the educational sphere by Wiley’s “5 Rs”. Recommendations to do so are based on a very well developed argument that goes back to Richard Stallman’s thinking on user freedoms, and Lawrence Lessig’s idea of remix as core activity for free culture. But while reuse of code is a common practice in computer programming, reuse of educational content remains an elusive phenomenon. Open licensing advocates usually argue on the basis of future gains: we need to provide a reuse potential by removing legal barriers so that one day we can see novel types of reuse happen. The challenge our community faces is whether the positive changes advocates say will be realized by adopting strong open policies (i.e. policies that deliberately contain an open licensing mandate) can be observed quickly enough in order to validate their development and implementation. Without solid data on why strong open models are needed, they might be evaluated as overly challenging or ineffective.

We need to remember that strong openness is much more controversial than its weak form. In Poland, the willingness of the government to support a strong open policy led to a conflict with a strong lobby of educational publishers. The controversy focused solely on legal issues around ownership of content – and would have been easily solved by adopting a weak policy model (which the Polish government refused to do, fortunately).

Free or Open? Wrong question?

Making the distinction between “libre” and “gratis” (or “free” and “open”, to use terminology proposed by Wiley and Hilton) is a first, important step. Only then we become aware that there is more to OER policies than just open licensing requirements. It becomes possible to define a spectrum of policies through which educational change happens thanks to openly shared and reused resources.

Yet this does not mean that we need to choose between one strategy or the other. Lowering textbook and materials costs for parents and students has been an important aspect of the education policy introduced in Poland. Similarly, open licensing is an important standard for public funding of educational resources and  should remain core to any impactful OER policy. These are important policies, with the potential of introducing greater equality into the educational system.

But we need to be aware that such a policy, on its own, is a “passive” one if we consider broader goals defined by the open education movement. It’s one that creates only potential action for further change. We need to ask the question, what is happening to content that we have openly provided? And build policies that later support not just passive provision of OER, but their active reuse.

Mapping paths toward open education

Reuse is not something that can only happen “in the wild” once the adequate conditions are created. In fact, such organic reuse is quite rare. Although we lack empirical data, I would assume that less than 5% of users is willing to modify content, remix it, create own versions and mash-ups.

If we agree that empowerment and engagement of educators and learners is an important goal, we need to implement active policies that build on and support the potential ensured by passive ones. These could include incentives for teachers to create, reuse and share OER, investing in repositories and other types of infrastructure for discovery and analytics of content, or paying attention to digital literacy of teachers and formulation of new pedagogies. Developing, testing and implementing such active policies in educational systems around the world has to compliment efforts to open resources.

Almost five years after the signing of the Paris OER Declaration and ten years after the foundational meeting in Cape Town, it is time to define new strategies. For the last few years, I have been advocating for the definition of such “paths to open education”. In response, I’ve often heard that education is too varied for such standard scenarios to be defined. But if we want policies that support active reuse of OERs, then we need to define such standard paths. It is clear to me that these would be useful for policymakers asking the same questions. And the answers to some of these questions might even be easier than focusing most of our efforts and outreach on open licensing.

This essay has been written ahead of the first OER Policy Forum, organised in April 2016 in Kraków, Poland. It originally was published on the Creative Commons blog.

Relacja z warsztatu otwartościowego z NDLA

European Open EDU Policy Project -

Dwa dni z pewnością nie wystarczą by opisać nawet wycinek tego jak otwarte zasoby zmieniają edukację w Europie. W takim czasie można jednak przedyskutować wiele o tym jak zmiany te są zależne od specyfiki poszczególnych państw. Taki cel miało spotkanie w formie booksprintu ekspertów zajmujących się otwartymi zasobami edukacyjnymi z całej Europy z zespołem Norweskiej agencji  ds. edukacji cyfrowej (NDLA, Nasjonal digital læringsarena).

NDLA odpowiada za jeden największych krajowych projektów bazujących na OZE w Europie. Choć podobnie do polskiej „Cyfrowej szkoły” ich pomysł na krajowe repozytorium materiałów pomocniczych dla nauczycieli pojawił się prawie spontanicznie, wykorzystując nagłą okazję zmiany finansowania dotychczasowego modelu, to jest to zupełnie odmienny projekt. W pierwszej części projektu finansowanego z programu „Równość w edukacji” spotkanie ekspertów i ekspertek z Europy Środkowej, Wschodniej oraz Skandynawii ujawniło jak wiele nieodkrytych praktyk i modeli działań mają przed sobą te kraje, posługujące się innymi językami i nie chwalące swoimi sukcesami tak jak zdarza się to krajom angielskojęzycznym. Utrudnia to wzajemne uczenie się od siebie i przepływ najlepszych praktyk. Norwegia jako jedna z pierwszych rozpoznała ten problem i od lat inwestuje m.in. w sieci i projekty edukacyjne z krajami nadbałtyckimi.

Po zeszłorocznym spotkaniu poświęconym funkcjonowaniu krajowych repozytoriów otwartych zasobów edukacyjnych w tym roku postanowiliśmy spotkać się by porównać różne praktyki pracy z autorami zasobów, w szczególności tymi instytucjonalnymi, oraz by zastanowić się jak duże ogólnokrajowe projekty OZE wpływają na system edukacji i rynek. W wyniku spotkania powstał uniwersalny poradnik dla szkół i instytucji rozważających rozpoczęcie pracy z OZE pt. 10 things you should consider when you #GoOpen oraz wzajemnie recenzowane studia przypadków polskiego projektu otwartych e-podręczników Cyfrowej Szkoły oraz norweskiego repozytorium NDLA. Dzięki współpracy zdalnej powstaną również takie studia dla belgijskiego repozytorium Klascement oraz kampanii #GoOpen ze Stanów Zjednoczonych.

Re-use a opłaty? Nasze stanowisko

European Open EDU Policy Project -

Ustawa o ponownym wykorzystywaniu informacji sektora publicznego (ISP) wchodzi w życie 16 czerwca. Zapewnia ona  bardziej przejrzyste i łatwiejsze stosowanie reguł ponownego wykorzystywania informacji sektora publicznego. Jedną z najważniejszych zmian jest określenie jednolitych zasad i standardów udostępniania zasobów dziedzictwa kultury. Ustawa przewiduje możliwość pobierania opłat za udostępnianie ISP przez muzea – Ministerstwo Kultury i Dziedzictwa Narodowego przygotowuje projekt rozporządzenia w tej sprawie.

Nasze stanowisko w sprawie maksymalnych stawek opłat za ponowne wykorzystanie informacji sektora publicznego nakładanych przez muzea znajdziesz tutaj.

Na stronie https://tuinderlusten-jheronimusbosch.ntr.nl/en możecie odbyć fascynującą podróż po obrazie Hieronima Boscha „Ogród rozkoszy ziemskich” właśnie dzięki możliwości ponownego wykorzystania zasobów dziedzictwa.


Przeprowadzona w ostatnich latach digitalizacja zasobów sztuki i dziedzictwa polskich instytucji kultury, zwłaszcza muzeów, jest ogromną szansą na demokratyzację dostępu do kultury. Uważamy jednak, że przedstawiona propozycja maksymalnych stawek opłat zawiera kwoty na tyle wysokie, że uruchomiony już potencjał ponownego wykorzystania nie będzie w pełni się realizował w sposób, jaki już możemy zaobserwować.

W naszej opinii na temat przyjętego tekstu ustawy o re-use z zadowoleniem podkreślaliśmy progresywne rozwiązania – poszerzony został katalog dokumentów udostępnianych w celu ponownego wykorzystywania o zasoby będące w posiadaniu bibliotek (w tym naukowych), muzeów i archiwów państwowych, a ustawa reguluje również dostęp obywateli do danych Instytutu Meteorologii i Gospodarki Wodnej oraz Państwowego Instytutu Geologicznego, co wcześniej wywoływało wiele kontrowersji. Naszym zdaniem nakładanie tak wysokich stawek za wykorzystywanie informacji sektora publicznego będzie krokiem w tył w kwestii dostępności i wykorzystywania przez obywateli informacji sektora publicznego, w tym przypadku zasobów dziedzictwa narodowego.

Chcesz wiedzieć więcej o potencjale ponownego wykorzystania zasobów dziedzictwa kultury? Zajrzyj do raportu opracowanego przez Smithsonian Institution.


Dlatego też postulujemy, aby zaniechać pobierania opłat za udostępnianie już zdigitalizowanych materiałów, niezależnie od celu ich wykorzystania. Ponadto jesteśmy przekonani, że dalsze finansowanie digitalizacji zasobów polskich muzeów jest konieczne, a opłaty z tytułu udostępniania cyfrowych zasobów nie powinny być traktowane jako źródło środków finansowych na ten cel. Apelujemy do Ministra Kultury i Dziedzictwa Narodowego o ustalenie stawek adekwatnych i oddających realną wycenę godzinową pracy muzealników, która nie będzie zniechęcała do ponownego wykorzystywania zasobów dziedzictwa narodowego – równą niezależnie od celu wykorzystania dla podmiotów komercyjnych i niekomercyjnych.

Institute for Open Leadership – pocztówka z Kapsztadu.

European Open EDU Policy Project -

W marcu tego roku miałam okazję wziąć udział jako mentorka w organizowanym w Kapsztadzie Institute for Open Leadership, powołanym przez Open Policy Network, międzynarodową organizację, której Centrum Cyfrowe jest współzałożycielem.

Kapsztad widziany z Góry Stołowej. zdj. Timothy Vollmer, CC-BY

IOL za cel stawia sobie budowanie społeczności liderów otwartości. Opiera się na mentoringu i możliwości bezpośredniej rozmowy z ekspertami z różnych obszarów otwartości – od nauki, przez edukację, po tzw. sektor GLAM (Galleries, Libraries, Archives Museum, który w Polsce nazywamy Otwartymi Instytucjami Kultury). W ramach rocznych projektów uczestnicy i uczestniczki wspierani przez mentorów i siebie nawzajem mają za zadanie opracować politykę otwartości.
Polityki otwartości są jedną z dróg wprowadzania zasad otwartości w instytucjach publicznych. To odgórne działania, zazwyczaj uzupełniające się z procesami oddolnymi, np. inicjatywami otwierania zasobów wyłaniającymi się wewnątrz organizacji. Wdrożenie takich polityk wymaga więc działań rzeczniczych, prowadzonych zazwyczaj z zewnątrz instytucji. Zapewnienie otwartości zasobów jest szczególnie istotne biorąc pod uwagę fakt, że coraz więcej materiałów digitalizowanych i tworzonych w tych instytucjach jest wynikiem grantów publicznych i prywatnych.

Wdrożenie polityki otwartości, w instytucjach z którymi stypendyści są związani ma być widocznym efektem uczestnictwa i zaangażowania w IOL.

IOL zaczyna się warsztatem w gronie kilkunastu stypendystów z całego świata. W ciągu tygodnia osoby uczestniczące w projekcie muszą przyswoić sporą porcję wiedzy: prawnoautorskiej – na ogólnym, międzynarodowym poziomie – w tym szczeczółowej wiedzy o działaniu licencji Creative Commons oraz specyfice działań rzeczniczych i otwartości w różnych dziedzinach. Wyjście poza rozmowy sprowadzające się wyłącznie do omawiania wyzwań, jakie otwartość napotyka w jednym, konkretnym kraju czy lokalnym kontekście pozwala dodatkowo przyjrzeć się im z innej perspektywy i wspólnie szukać kreatywnych rozwiązań.


Poprzeczka postawiona jest więc bardzo wysoko. Polityka otwartości to narzędzie bardzo zaawansowane i oparte zwykle o skomplikowany i dostosowany do specyfiki każdej instytucji proces. Nie jest możliwe po prostu nauczenie kogoś pracy z nim. Taki proces wymaga nie tylko działań rzeczniczych, które zakończą się zgodą na kształt i zakres polityki, ale również zaplanowania i przeprowadzenia wdrożenia, które obejmuje badanie potrzeb, motywacji, szkolenia dla kadry i ustanowienie procedur zarządczych dających pewność, że postanowienia polityki będą wypełniane. Dlatego działania prowadzone w ramach IOL wymagają uporania się z wieloma wyzwaniami.

Po pierwsze, trudno jest prowadzić warsztat na tak zaawansowany temat dla zróżnicowanej grupy uczestników, w której osoby specjalizujące się w otwartości od lat spotykają się z osobami, które o licencjach słyszą pierwszy raz. Między potrzebami uczestników, a dokładniej – krajów przez nich reprezentowanych – również występują ogromne różnice. Zupełnie inaczej praca z otwartymi zasobami wygląda w kraju, gdzie nadal podstawowym problemem jest dostęp do edukacji i informacji, niż w kraju, w którym jest to już raczej wyraźna tendencja, a instytucje postrzegają otwartość jako narzędzie budowania swojego wizerunku.

Po drugie, choć program zakłada, że praca nad polityką otwartości dla konkretnej instytucji ma trwać rok, w istocie jest to zdecydowanie za mało na wdrożenie polityki otwartości. Wprowadzając rozmowę o niej w instytucji trzeba być przygotowanym na zmierzenie się z licznymi wyzwaniami organizacyjnymi. Często jest to również pierwsza okazja do zespołowej rozmowy o misji i kierunkach działania strategicznego. Ustawienie oczekiwań wobec stypendystów w ten sposób może nie ułatwiać im sukcesu. Wydaje się, że odpowiedzią na ten kłopot mogłoby być wzmocnienie głosu ekspertów i ekspertek spoza Stanów Zjednoczonych, ponieważ ich doświadczenia i praca różnią się od tej jaką wykonują ich amerykańscy koledzy. Bardziej lokalne podejście pozwala dostrzec wyzwania niewystępujące w innych kontekstach, a co za tym idzie – lepsze zrozumienie potrzeb ludzi i instytucji, których pracę chcemy ułatwić i których kolekcje chcemy skutecznie i trwale udostępniać w sieci dla reszty społeczeństwa.

Podobnie, jak w poprzednim roku, tak i w tym wśród tematów dominowała otwartość zasobów edukacyjnych. Zagadnienia bliższe temu, czym zajmujemy się w programie Otwartej Kultury reprezentowały trzy osoby i realizowane przez nie projekty:

•    Rim Azib z Tunezji pracuje dla British Council i jest rezydentką Wikipedii (Wikipedian in residence) tunezyjskim Centrum Muzyki Arabskiej i Śródziemnomorskiej, gdzie znajduje się Narodowe Archiwum Dźwięków. Misją tego archiwum jest udostępnienie fonografii, a Rim będzie starała się sprawić, żeby była ona dostępna w sposób otwarty, zarówno od strony technologicznej, jak i prawnej.

•    Steven Crains pracuje w dziale PR Greenpeace nad otworzeniem dostępu do archiwum cyfrowej kolekcji zdjęć m.in. zmieniających się pod wypływem globalnego ocieplenia krajobrazów, wymierających gatunków zgromadzonych przez lata działania tej organizacji. Dla Stevena otwartość to sposób na zwiększenie dotarcia do odbiorców działań Greenpeacu z jednej strony, z drugiej – na podniesienie wydajności pracy międzynarodowej sieci, której oddziały są rozsiane po całym świecie. W tym momencie dostęp do bazy mają tylko pracownicy siedziby głównej w Amsterdamie.

•    Juliana Mointeiro z Brazylii jest kuratorką i kustoszką Muzeum Imigracji w Sao Paolo, które zmaga się z brakiem środków na digitliazację swojej kolekcji. Juliana chce zaprezentować dyrektorom swojego muzeum otwartość jako sposób na realizację przyjętej przez nich misji, którą jest utrzymywanie społeczności imigracyjnych w kontakcie z ich kulturą. Pierwszym krokiem będzie otworzenie materiałów promujących wystawy: zdjęć i katalogów, a kolejnym – materiałów edukacyjnych i publikacji naukowych.

Więcej o projektach realizowanych w ramach IOL można przeczytać na blogu Creative Commons:



U.S. should require “open by default” for federal government software code

Creativecommons.org -

Photo by Tirza van Dijk, CC0.

A few weeks ago we submitted comments to the Office of Management and Budget’s (OMB) draft federal source code policy. The purpose of the policy is to improve access to custom software code developed for the federal government, and would require that:

(1) New custom code whose development is paid for by the Federal Government be made available for re-use across Federal agencies; and

(2) a portion of that new custom code be released to the public as Open Source Software.

We provided feedback on a few different areas of the proposed policy.

First, we suggested that software developed by U.S. government employees should be clearly marked as being in the public domain not only in the United States, but worldwide, and as a matter of both copyright and patent rights. Under U.S. copyright law, works created by employees of the federal government are not subject to copyright protection in the United States. But what about foreign copyrights? Clearly, this custom code produced by government employees—thus in the public domain in the U.S.—could be equally as useful to developers outside of the U.S. There is no indication that the U.S. government has wishes to enforce its copyright abroad, but rather allows and even encourages the worldwide public to reuse its works freely, including software.

We said that software created by federal government employees should be released under the CC0 Public Domain Dedication, which waives any copyright that might apply, accompanied by a standard non-assertion pledge (“nonassert”) that indicates that the U.S. government will not to seek to enforce patent rights it may have against reusers of the software.

Second, we proposed that software funded by the federal government but developed by third party vendors should be released under free/open source software licenses that permit the greatest levels of freedom for reuse with the least number of restrictions. This will ensure that the public is granted rights to freely use, share, and build upon custom software code developed using public funds.

Third, we urged the federal government to consider setting a policy of “open by default” for custom software developed by third parties. Right now, the draft policy requires each covered agency to release at least 20% of its newly-developed custom code each year as open source software.

Finally, we urged the U.S. government to extending its open source licensing policy to the outputs of Federal grants and cooperative agreements. We discussed a precedent that support the adoption of a default open licensing policy for software—even for grants and cooperative agreements. In 2011, the U.S. Department of Labor (DOL) adopted an open licensing policy for the outputs of its $2 billion Trade Adjustment Assistance Community College and Career Training Grants Program. As a condition of the receipt of a grant under this program, grantees are required to license to the public all digital content created with the support of the grant under a Creative Commons Attribution 4.0 (CC BY) license. In addition to content such as digital education and training resources, DOL requires that all computer software source code developed or created with grant funds must be released under an open license acceptable to either the Free Software Foundation and/or the Open Source Initiative. DOL adopted this open licensing policy “to ensure that the Federal investment of these funds has as broad an impact as possible and to encourage innovation in the development of new learning materials.” As of December 2015, the Department of Labor has adopted a department-wide open licensing policy, which covers all intellectual property developed under a competitive Federal award process.

The public comment period is now closed. The U.S. government will analyze the feedback and revise the policy as necessary. You can view all of the comments submitted here.

The post U.S. should require “open by default” for federal government software code appeared first on Creative Commons blog.


Abonner på creativecommons.no nyhetsinnsamler