The project is financed from the budget of the Republic of Poland, as part of the Minister’s of Education and Science programme Science for the Society. The title of the project: Architecture and Infrastructure of the Great Reset: A Study of the Transformation towards the Information Civilization

7.9.Artificial Intelligence

Opinie na temat zagrożeń ze strony SI

  • Opinia Elona Muska: sztuczna inteligencja jest groźniejsza, niż głowice jądrowe. [https://cyberdefence24.pl/elon-musk-sztuczna-inteligencja-grozniejsza-niz-glowice-jadrowe]
  • Opinia Billa Gatesa: https://forsal.pl/artykuly/850474,gates-rozwoj-sztucznej-inteligencji-może-być-zagrozeniem-dla-ludzkosci.html
  • Sprawozdanie Komisji dla Parlamentu Europejskiego, Rady i Europejskiego Komitetu Ekonomiczno-Społecznego na temat wpływu sztucznej inteligencji, internetu rzeczy i robotyki na bezpieczeństwo i odpowiedzialność, Bruksela, dnia 19.2.2020 r. COM(2020) 64 final [https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=CELEX:52020DC0064&from=en]. Mowa tu między innymi, że „Oprócz możliwości, jakie AI, IoT i robotyka mogą przynieść gospodarce i naszym społeczeństwom, mogą one również stwarzać ryzyko naruszenia chronionych prawem interesów, zarówno materialnych, jak i niematerialnych. W miarę poszerzania się zakresu stosowania ryzyko wystąpienia takiej szkody będzie się zwiększać. […] Przyszłe „zachowanie” zastosowań opartych na AI może stwarzać ryzyko dla zdrowia psychicznego użytkowników, na przykład wskutek ich współpracy z robotami humanoidalnymi i systemami opartymi na AI w domu lub w środowisku pracy.”
  • Opinia George Sorosa podczas WEF w 2019 odnośnie do wykorzystania SI przez chińskie władze dla totalitarnej inwigilacji i kontroli [“social credit system”]: https://www.georgesoros.com/2019/01/24/remarks-delivered-at-the-world-economic-forum-2/ [„All the rapidly expanding information available about a person is going to be consolidated in a centralized database to create a “social credit system.” Based on that data, people will be evaluated by algorithms that will determine whether they pose a threat to the one-party state. People will then be treated accordingly. The social credit system is not yet fully operational, but it’s clear where it’s heading. It will subordinate the fate of the individual to the interests of the one-party state in ways unprecedented in history.
  • Opinia George Sorosa na temat zagrożenia ze strony użycia SI; wygłoszona podczas WEF w 2022 roku; wykład poświęcony zagrożeniu przetrwania cywilizacji z powodu inwazji Rosji na Ukrainę [„I found part of the answer in the rapid development of digital technology, especially artificial intelligence. In theory, AI ought to be politically neutral: it can be used for good or bad. But in practice the effect is asymmetric. AI is particularly good at producing instruments of control that help repressive regimes and endanger open societies. Covid-19 also helped legitimize instruments of control because they are really useful in dealing with the virus. The rapid development of AI has gone hand in hand with the rise of social media and tech platforms. These conglomerates have come to dominate the global economy. They are multinational and their reach extends around the world. These developments have had far-reaching consequences. They have sharpened the conflict between China and the United States”]. Tekst wykładu: https://www.georgesoros.com/2022/05/24/remarks-delivered-at-the-2022-world-economic-forum-in-davos/
  • Ostrzeżenie dyrektora FBI (Christopher Wray, podczas WEF 2023 ) przed chińskim programem dotyczącym SI: https://www.artificialintelligence-news.com/2023/01/23/fbi-director-warns-beijing-ai-program/
  • Ostrzeżenie (2020) przed <lukami> w ewaluowanej, poprzedniej wersji ChatGPT: Publikacja naukowa (Kris McGuffie i Alex Newhouse, THE RADICALIZATION RISKS OF GPT-3 AND ADVANCED NEURAL LANGUAGE MODELS; Middlebury Institute of International Studies’ Center on Terrorism, Extremism, and Counterterrorism) wskazująca jak ChatGPT (Open AI) mógłby być wykorzystany przez terrorystów [https://arxiv.org/pdf/2009.06807.pdf]. [Open AI pracuje nad kolejną, poprawioną wersją: ChatGPT-4]
  • Opinia administracji J. Bidena (Office of Science and Technology Policy [OSTP]) w Blueprint for an AI Bill of Rights (2022) o zagrożeniu demokracji amerykańskiej: „Among the great challenges posed to democracy today is the use of technology, data, and automated systems in ways that threaten the rights of the American public. Too often, these tools are used to limit our opportunities and prevent our access to critical resources or services. These problems are well documented. In America and around the world, systems supposed to help with patient care have proven unsafe, ineffective, or biased. Algorithms used in hiring and credit decisions have been found to reflect and reproduce existing unwanted inequities or embed new harmful bias and discrimination. Unchecked social media data collection has been used to threaten people’s opportunities, undermine their privacy, or pervasively track their activity—often without their knowledge or consent” (s. 3)
  • Zagrożenie zidentyfikowane przez Vivek Ramaswamy (np. blokowanie przez YouTube materiałów krytycznych wobec oficjalnej polityki wobec COVID-19): Rodz. IX. The Silicon Leviathan, książki Vivek Ramaswamy, Woke, Inc. Inside corporate Americas` Social Justice Scam. Analiza V. Ramaswamy zagrożeń ChatGPT.
  • Pause Giant AI Experiments: An Open Letter (Listy otwarty w sprawie zagrożeń ze strony rozwoju SI, marzec 2023, podpisany między innymi przez Elona Muska, CEO of SpaceX, Tesla & Twitter, Steve„`a Wozniaka, Co-founder, Apple, Yuvala Noah Harari): ” AI systems with human-competitive intelligence can pose profound risks to society and humanity”, co oznacza „ryzyko utraty kontroli nad naszą cywilizacją”. Postuluje się zatrzymanie na pół roku badań nad SI (ma się tu na uwadze zwłaszcza rozwój chatbotów, w marcu 2023 otwarto ChatGPT4) [https://futureoflife.org/open-letter/pause-giant-ai-experiments/]
  • Raport Europolu (27 III 2023) ostrzegający przed wykorzystywaniem ChatGPT przez przestępców, [https://www.europol.europa.eu/publications-events/publications]/
  • Opinia Thierry Bretona, Komisarza UE: „the sudden rise of popularity of applications like ChatGPT and the associated risks underscore the urgent need for rules to be established”. „As showcased by ChatGPT, AI solutions can offer great opportunities for businesses and citizens, but can also pose risks. This is why we need a solid regulatory framework to ensure trustworthy AI based on high-quality data,” [[https://www.euronews.com/next/2023/02/06/chatgpt-in-the-spotlight-as-the-eu-steps-up-calls-for-tougher-regulation-is-its-new-ai-act]
  • Blokada ChatGPT przez Włochy (31 III 2023, pierwszy kraj, który podjął taką inicjatywę), z racji zagrożeń prywatności obywateli (nierespektowania RODO) oraz zagrożeń dobra nieletnich. Żądanie wyjaśnienia od Open AI [https://www.euronews.com/next/2023/04/04/after-italy-blocked-access-to-openais-chatgpt-chatbot-will-the-rest-of-europe-follow]
  • Sam Altman, dyrektor generalny OpenAI (twórcy ChatGPT) przesłuchanie przed senacką Podkomisją Sądownictwa do spraw Prywatności, Technologii i Prawa USA, 16 V 2023, „Arificial Inteligence in Government” (razem z Christina Montgomery (IBM) i Garym Marcusem [https://www.judiciary.senate.gov/committee-activity/hearings/oversight-of-ai-rules-for-artificial-intelligence]; tekst wypowiedzi S. Altmana (postulował wprowadzenie przepisów regulujących działanie sztucznej inteligencji) [ https://www.judiciary.senate.gov/imo/media/doc/2023-05-16%20-%20Bio%20&%20Testimony%20-%20Altman.pdf]
  • Sam Altman, OpenAI, 24 V 2023 w Warszawie, organizatorem NCBR, postulat powołania międzynarodowej agencji, która miałaby kontrolować SI. Zdaniem Sama Altmana „sztuczna inteligencja może być zagrożeniem dla demokracji. Zwłaszcza że jest świadomy, iż w wyścigu technologicznym biorą też udział reżimy niedemokratyczne”. [https://businessinsider.com.pl/technologie/sam-altman-w-warszawie-5-najwazniejszych-wypowiedzi-tworcy-chatgpt-w-polsce-to/683pqjq]
  • Eric Schmidt, były dyrektor Google (2001- 2011) ostrzegł, że „AI Could Cause People To Be ‘Harmed Or Killed’” (Wall Street Journal’s CEO Council Summit, Londyn, 25 V 2023) [https://ceocouncil.wsj.com/event/ceo-council-summit-7/]
  • ChatGPT w radiologii [M. Ksiązkowski: ChatGPT zdał egzamin z radiologii, ale zdarzają mu się “halucynacje”; https://pulsmedycyny.pl/chatgpt-zdal-egzamin-z-radiologii-ale-zdarzaja-mu-sie-halucynacje-1185485

Regulacje prawne dotyczące cyberprzestrzeni

Wykaz unijnego prawodawstwa harmonizacyjnego dotyczącego SI, jego założenia i podstawowe pojęcia

Etyczne aspekty SI

Kodeksy etyczne dotyczące SI

Raporty i fakty na temat manipulacji przechwytywania i sprzedawania informacji osobowych

Organizacja pracy: manipulacje związane z zatrudnianiem przy pomocy SI

Pomyłki przy wykorzystywania SI przez wymiar sprawiedliwości

  • Kashmir Hill. Another Arrest, and Jail Time, Due to a Bad Facial Recognition Match […]: . New York Times. Dec. 29, 2020, updated Jan. 6, 2021.
    https://www.nytimes.com/2020/12/29/technology/facial-recognition-misidentify-jail.html;
  • Khari Johnson. How Wrongful Arrests Based on AI Derailed 3 Men’s Lives. Wired. Mar. 7, 2022. https:// www.wired.com/story/wrongful-arrests-ai-derailed-3-mens-lives/
  • Kłopoty nowojorskiego prawnika (S. Schwartz), który zaufał <pomocy>, „halucynującego” ChataGPT (<Inteligentny> ChatGPT <wymyślił> nieistniejące orzeczenia sądowe: „Varghese v. China Southern Airlines, Shaboon v. Egyptair, Petersen v. Iran Air, Martinez v. Delta Airlines, Estate of Durden v. KLM Royal Dutch Airlines, and Miller v. United Airlines”: B. Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT , 29 V 2023 [https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html]

SI a możliwa dyskryminacja

Dyskrymiacje SI w dziedzinie publicznego interesu

Negatywne konsekwencje <śledzenia> w szkołach

Negatywne konsekwencje <śledzenia> pracowników

Mechanizmy uzależniania i manipulacji przy pomocy systemów SI w serwisach społecznościowych

Stosowanie SI w opiece zdrowotnej i związane z tym zagrożenia

Moralne poprawianie (moral AIenhancement) człowieka przy pomocy SI?

World Economic Forum 2023 a SI

Dodaj komentarz