The project is financed from the budget of the Republic of Poland, as part of the Minister’s of Education and Science programme Science for the Society. The title of the project: Architecture and Infrastructure of the Great Reset: A Study of the Transformation towards the Information Civilization
Sprawozdanie Komisji dla Parlamentu Europejskiego, Rady i Europejskiego Komitetu Ekonomiczno-Społecznego na temat wpływu sztucznej inteligencji, internetu rzeczy i robotyki na bezpieczeństwo i odpowiedzialność, Bruksela, dnia 19.2.2020 r. COM(2020) 64 final [https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=CELEX:52020DC0064&from=en]. Mowa tu między innymi, że „Oprócz możliwości, jakie AI, IoT i robotyka mogą przynieść gospodarce i naszym społeczeństwom, mogą one również stwarzać ryzyko naruszenia chronionych prawem interesów, zarówno materialnych, jak i niematerialnych. W miarę poszerzania się zakresu stosowania ryzyko wystąpienia takiej szkody będzie się zwiększać. […] Przyszłe „zachowanie” zastosowań opartych na AI może stwarzać ryzyko dla zdrowia psychicznego użytkowników, na przykład wskutek ich współpracy z robotami humanoidalnymi i systemami opartymi na AI w domu lub w środowisku pracy.”
Opinia George Sorosa podczas WEF w 2019 odnośnie do wykorzystania SI przez chińskie władze dla totalitarnej inwigilacji i kontroli [“social credit system”]: https://www.georgesoros.com/2019/01/24/remarks-delivered-at-the-world-economic-forum-2/ [„All the rapidly expanding information available about a person is going to be consolidated in a centralized database to create a “social credit system.” Based on that data, people will be evaluated by algorithms that will determine whether they pose a threat to the one-party state. People will then be treated accordingly. The social credit system is not yet fully operational, but it’s clear where it’s heading. It will subordinate the fate of the individual to the interests of the one-party state in ways unprecedented in history.
Opinia George Sorosa na temat zagrożenia ze strony użycia SI; wygłoszona podczas WEF w 2022 roku; wykład poświęcony zagrożeniu przetrwania cywilizacji z powodu inwazji Rosji na Ukrainę [„I found part of the answer in the rapid development of digital technology, especially artificial intelligence. In theory, AI ought to be politically neutral: it can be used for good or bad. But in practice the effect is asymmetric. AI is particularly good at producing instruments of control that help repressive regimes and endanger open societies. Covid-19 also helped legitimize instruments of control because they are really useful in dealing with the virus. The rapid development of AI has gone hand in hand with the rise of social media and tech platforms. These conglomerates have come to dominate the global economy. They are multinational and their reach extends around the world. These developments have had far-reaching consequences. They have sharpened the conflict between China and the United States”]. Tekst wykładu: https://www.georgesoros.com/2022/05/24/remarks-delivered-at-the-2022-world-economic-forum-in-davos/
Ostrzeżenie (2020) przed <lukami> w ewaluowanej, poprzedniej wersji ChatGPT: Publikacja naukowa (Kris McGuffie i Alex Newhouse, THE RADICALIZATION RISKS OF GPT-3 AND ADVANCED NEURAL LANGUAGE MODELS; Middlebury Institute of International Studies’ Center on Terrorism, Extremism, and Counterterrorism) wskazująca jak ChatGPT (Open AI) mógłby być wykorzystany przez terrorystów [https://arxiv.org/pdf/2009.06807.pdf]. [Open AI pracuje nad kolejną, poprawioną wersją: ChatGPT-4]
Opinia administracji J. Bidena (Office of Science and Technology Policy [OSTP]) wBlueprint for an AI Bill of Rights (2022) o zagrożeniu demokracji amerykańskiej: „Among the great challenges posed to democracy today is the use of technology, data, and automated systems in ways that threaten the rights of the American public. Too often, these tools are used to limit our opportunities and prevent our access to critical resources or services. These problems are well documented. In America and around the world, systems supposed to help with patient care have proven unsafe, ineffective, or biased. Algorithms used in hiring and credit decisions have been found to reflect and reproduce existing unwanted inequities or embed new harmful bias and discrimination. Unchecked social media data collection has been used to threaten people’s opportunities, undermine their privacy, or pervasively track their activity—often without their knowledge or consent” (s. 3)
Pause Giant AI Experiments: An Open Letter (Listy otwarty w sprawie zagrożeń ze strony rozwoju SI, marzec 2023, podpisany między innymi przez Elona Muska, CEO of SpaceX, Tesla & Twitter, Steve„`a Wozniaka, Co-founder, Apple, Yuvala Noah Harari): ” AI systems with human-competitive intelligence can pose profound risks to society and humanity”, co oznacza „ryzyko utraty kontroli nad naszą cywilizacją”. Postuluje się zatrzymanie na pół roku badań nad SI (ma się tu na uwadze zwłaszcza rozwój chatbotów, w marcu 2023 otwarto ChatGPT4) [https://futureoflife.org/open-letter/pause-giant-ai-experiments/]
Opinia Thierry Bretona, Komisarza UE: „the sudden rise of popularity of applications like ChatGPT and the associated risks underscore the urgent need for rules to be established”. „As showcased by ChatGPT, AI solutions can offer great opportunities for businesses and citizens, but can also pose risks. This is why we need a solid regulatory framework to ensure trustworthy AI based on high-quality data,” [[https://www.euronews.com/next/2023/02/06/chatgpt-in-the-spotlight-as-the-eu-steps-up-calls-for-tougher-regulation-is-its-new-ai-act]
Eric Schmidt, były dyrektor Google (2001- 2011) ostrzegł, że „AI Could Cause People To Be ‘Harmed Or Killed’” (Wall Street Journal’s CEO Council Summit, Londyn, 25 V 2023) [https://ceocouncil.wsj.com/event/ceo-council-summit-7/]
Plany rządów (kwiecień-maj 2023) dot. regulacji prawnych odnośnie do SI: Raport Reuters [https://www.reuters.com/technology/governments-efforts-regulate-ai-tools-2023-04-12/]
Wykaz unijnego prawodawstwa harmonizacyjnego dotyczącego SI, jego założenia i podstawowe pojęcia
Opinia Komisji Europejskiej na temat aspektu etycznego SI: „Wymiar etyczny SI nie jest luksusem czy dodatkiem: musi stanowić integralną część rozwoju SI.”(„Budowanie zaufania do sztucznej inteligencji ukierunkowanej na człowieka; COM (2019) 168; 3. Wnioski].)
Aktywność firm ubezpieczeniowych: Angela Chen. Why the Future of Life Insurance May Depend on Your Online Presence. The Verge. Feb.7, 2019. https://www.theverge.com/2019/2/7/18211890/social-media-life-insurance-new-york-algorithms-big-data-discrimination-online-records; Marshall Allen. You Snooze, You Lose: Insurers Make The Old Adage Literally True. ProPublica. Nov. 21, 2018. https://www.propublica.org/article/you-snooze-you-lose-insurers-make-the-old-adage-literally-true
Handel osobowymi danymi: Scott Ikeda. Major Data Broker Exposes 235 Million Social Media Profiles in Data Lead: Info Appears to Have Been Scraped Without Permission. CPO Magazine. Aug. 28, 2020. https://www.cpomagazine.com/cyber-security/major-data-broker-exposes-235-million-social-media-profiles-in-data-leak/; Lily Hay Newman. 1.2 Billion Records Found Exposed Online in a Single Server. WIRED,Nov. 22, 2019. https://www.wired.com/story/billion-records-exposed-online/
Zażalenie na firmę zajmującą się <algorytmicznym> zatrudnianiem, skierowane do Federalnej Komisji Handlu [Federal Trade Commision, FTC] przez Electronic Privacy Information Center [EPIC is a public interest research center in Washington, DC seeking to protect privacy, freedom of expression, and democratic values in the information age] : https://archive.epic.org/privacy/ftc/hirevue/
Pomyłki przy wykorzystywania SI przez wymiar sprawiedliwości
Kłopoty nowojorskiego prawnika (S. Schwartz), który zaufał <pomocy>, „halucynującego” ChataGPT (<Inteligentny> ChatGPT <wymyślił> nieistniejące orzeczenia sądowe: „Varghese v. China Southern Airlines, Shaboon v. Egyptair, Petersen v. Iran Air, Martinez v. Delta Airlines, Estate of Durden v. KLM Royal Dutch Airlines, and Miller v. United Airlines”: B. Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT , 29 V 2023 [https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html]
Darshali A. Vyas et al., Hidden in Plain Sight – Reconsidering the Use of Race Correction in Clinical Algorithms, 383 N. Engl. J. Med.874, 876-78 (Aug. 27, 2020), https://www.nejm.org/doi/full/10.1056/ NEJMms2004740
Andrew D. Selbst. An Institutional View Of Algorithmic Impact Assessments. Harvard Journal of Law & Technology. June 15, 2021. https://ssrn.com/abstract=3867634;
Dillon Reisman, Jason Schultz, Kate Crawford, and Meredith Whittaker. Algorithmic Impact Assessments: A Practical Framework for Public Agency Accountability. AI Now Institute Report. April 2018. https://ainowinstitute.org/aiareport2018.pdf
Virginia Doellgast and Sean O’Brady. Making Call Center Jobs Better: The Relationship between Management Practices and Worker Stress. A Report for the CWA. June 2020. https://hdl.handle.net/1813/74307
Wyrok Federalnej Komisji Handlu (Federal Trade Commision, FDC) skazujący Twittera na karę 150 mln dolarów za manipulacje użytkownikami portalu społecznościowego , maj 2022: https://www.ftc.gov/news-events/news/press-releases/2022/05/ftc-charges-twitter-deceptively-using-account-security-data-sell-targeted-ads [w orzeczeniu czytamy: “As the complaint notes, Twitter obtained data from users on the pretext of harnessing it for security purposes but then ended up also using the data to target users with ads,” said FTC Chair Lina M. Khan. „This practice affected more than 140 million Twitter users, while boosting Twitter’s primary source of revenue.”]
Ethics and governance of artificial intelligence for health: WHO guidance, Geneva: World Health Organization; 2021[dokument WHO ostrzegający przed zagrożeniami ze strony SI, szczegółowe analizy, w bibliografii 336 pozycji, linki do artykułów i innych publikacji] https://www.who.int/publications/i/item/9789240029200]
Artykuł nt etycznych aspektów stosowania SI w opiece zdrowotnej: T. Golnar Karimian,Elena Petelos, Silvia M. A. A. Evershe, Ethical issues of the application of artificial intelligence in healthcare: a systematic scoping review, AI and Ethics volume 2, pages 539–551 (2022)
Neuralink (E. Musk) projekt stosowania mózgowych implantów w marcu 2023 nie uzyskał zgody U.S. Food and Drug Administration (FDA) na prowadzenie prób klinicznych ( RACHAEL LEVY i MARISA TAYLOR, Raport Specjalny na ten temat: U.S. regulators rejected Elon Musk’s bid to test brain chips in humans, citing safety risks. marzec 2023) [https://www.reuters.com/investigates/special-report/neuralink-musk-fda/]. Czytamy w Raporcie, że „FDA had pointed out several safety concerns to Neuralink that needed to be addressed before sanctioning human trials, Some of the issues involved the lithium battery of the device, the possibility of the implant’s wires migrating within the brain, and the challenge of safely extracting the device without damaging brain tissue”. 25 V 2023Neuralink podał na Twitterze [https://twitter.com/neuralink/status/1661857379460468736], że FDA zgodziło się testy mózgowych implantów na ludziach, ale na stronie FDA brakuje informacji na ten temat. Na pytania Reutersa ani Neuralink ani FDA jeszcze nie udzieliło wyjaśnień [https://www.reuters.com/science/elon-musks-neuralink-gets-us-fda-approval-human-clinical-study-brain-implants-2023-05-25/].
Moralne poprawianie (moral AIenhancement) człowieka przy pomocy SI?
Francisco Lara, Why a Virtual Assistant for Moral Enhancement When We Could have a Socrates?Science and Engineering Ethics, 27, 42 (2021) [https://link.springer.com/article/10.1007/s11948-021-00318-5] [prezentacja stanowisk w sprawie moral AIinhancement]
Durbin J., Vive To Spend $10 Million on VR Projects That ‘Create Positive Impact (program VR for Impact). Vive zapowiedź na WFE w Davos 2017 przeznaczenia 10 000 000 dolarów (podaje się, że zgodnie z Agendą 2030) “to drive VR content and technologies that will create positive impact and change,” . UploadVR.; 2017 [https://uploadvr.com/vive-vr-for-impact-10-million/
Project Debater, IBM („Project Debater is the first AI system that can debate humans on complex topics. The goal is to help people build persuasive arguments and make well-informed decisions) [https://research.ibm.com/interactive/project-debater/].
Panel na WEF 2023: Generative AI. As artificial intelligence moves from analysing existing data to creating new text, images and videos, how will these improvements shift the augmentation versus automation debate and what implications will it have for industries? Speakers: Azeem Azhar, Priya Lakhani, Hiroaki Kitano, Refik Anadol, Jean-Noël Barrot, Kay Firth-Butterfield (17 stycznia 2023) [https://www.weforum.org/events/world-economic-forum-annual-meeting-2023/sessions/generative-ai]
Wypowiedź Clausa Schwaba podczas World Government Summit (WGS), Dubaj, 14 lutego 2023 („Who masters those technologies – in some way – will be the master of the world.” (zaakcentował technologie posługujące się <sztuczną inteligencją> [wymienił także <Metaverse>, ale także „nowe technologie kosmiczne, biologia syntetyczna, i mógłbym tak dalej„]: https://twitter.com/disclosetv/status/1625624806203817992