Aleja Innowacji: Sztuczna inteligencja generatywna

W tej serii poświęconej trendom technologicznym staramy się zwrócić uwagę na trendy technologiczne, koncentrując się na biznesie. Tematy te wzbudzają zainteresowanie i są istotne, zachęcając do bycia na bieżąco z najnowszymi osiągnięciami wpływającymi na branże i firmy. W tym artykule omówimy generatywną sztuczną inteligencję.

W pierwszym temacie zajmiemy się generatywną sztuczną inteligencją (AI). Jeśli obecnie istnieją jakieś popularne słowa związane z AI, to musi to być ChatGPT lub jego odpowiednik w dziedzinie obrazowania, na przykład Stable Diffusion, Dall-E lub MidJourney.

Kto nie pamięta aresztowania Donalda Trumpa lub Papieża w zimowej kurtce Balenciaga Drip?

 

Generator obrazów AI wykorzystujący generatywną sztuczną inteligencję

 

Generatywna sztuczna inteligencja to technologia, która uczy się na podstawie istniejących przykładów, aby tworzyć nowe, realistyczne treści na dużą skalę. Potrafi tworzyć takie rzeczy jak obrazy, filmy, muzykę, mowę, tekst, kod oprogramowania i projekty produktów, które są oryginalne, ale inspirowane tym, czego się nauczyła.

Technologia ta wykorzystuje zaawansowane techniki, które stale się udoskonalają. Jedną z ważnych metod jest trenowanie dużych modeli AI na dużej ilości danych bez etykiet, a następnie dostrajanie ich do konkretnych zadań. Tworzenie tych modeli wymaga skomplikowanych obliczeń matematycznych i dużej mocy obliczeniowej, ale w zasadzie przewidują one, co będzie dalej.

Obecnie sztuczna inteligencja generatywna często tworzy rzeczy, gdy poprosi się ją o to w normalnym języku – bez konieczności kodowania. Firmy mogą jednak wykorzystywać ją do wielu celów, takich jak wynajdywanie nowych leków, projektowanie układów scalonych i opracowywanie nowych materiałów.

Ogólnie rzecz biorąc, choć generatywna sztuczna inteligencja ma ogromny potencjał innowacyjności i kreatywności, jej negatywna reputacja wynika z uzasadnionych obaw dotyczących jej etycznych, społecznych i prawnych implikacji. Rozwiązanie tych problemów wymaga wspólnego wysiłku badaczy, decydentów, interesariuszy branżowych i społeczeństwa obywatelskiego w celu opracowania solidnych zabezpieczeń, promowania odpowiedzialnych praktyk i ograniczania ryzyka związanego z technologiami sztucznej inteligencji. W 2016 roku Cathy O'Neil napisała już gorąco polecaną książkę pt. „ Broń matematycznego zniszczenia” .

Broń matematycznej zagłady - książka autorstwa Cathy O'Neil.

W książce „Weapons of Math Destruction” autorka bada negatywny wpływ algorytmicznych systemów podejmowania decyzji, które określa mianem „nieprzejrzystych, nieuregulowanych i destrukcyjnych modeli matematycznych”. Istnieje wiele podobieństw między kwestiami poruszonymi w książce O’Neil a negatywnym nastrojem wokół generatywnej sztucznej inteligencji.

Nieprzezroczystość i brak przejrzystości

Zarówno systemy algorytmiczne, jak i generatywne modele sztucznej inteligencji mogą działać w sposób nieprzejrzysty i nietransparentny, utrudniając użytkownikom zrozumienie, w jaki sposób podejmowane są decyzje lub generowane są treści. Ten brak przejrzystości może w obu przypadkach prowadzić do obaw o odpowiedzialność, uczciwość i stronniczość.

Wzmacnianie uprzedzeń i nierówności

O'Neil podkreśla, jak modele algorytmiczne mogą utrwalać i wzmacniać uprzedzenia obecne w danych wykorzystywanych do ich szkolenia, prowadząc do niesprawiedliwych lub dyskryminujących rezultatów, zwłaszcza w przypadku społeczności marginalizowanych. Podobnie, generatywne modele sztucznej inteligencji mogą dziedziczyć i propagować uprzedzenia obecne w danych szkoleniowych, co skutkuje generowaniem stronniczych lub nieodpowiednich treści.

Wpływ na jednostki i społeczeństwo

Zarówno artykuł „Broń matematycznej destrukcji”, jak i obawy dotyczące generatywnej sztucznej inteligencji (AI) podkreślają potencjalny negatywny wpływ na jednostki i społeczeństwo. O'Neil omawia, jak systemy algorytmiczne mogą szkodzić jednostkom, pozbawiając je szans lub wzmacniając nierówności społeczne. Podobnie, generatywne modele AI mogą generować szkodliwe treści, takie jak filmy deepfake czy dezinformacje, które mogą mieć poważne konsekwencje dla jednostek i całego społeczeństwa.

Brak regulacji i nadzoru

O'Neil podkreśla brak regulacji i nadzoru nad algorytmicznymi systemami podejmowania decyzji, co pozwala na niekontrolowane stosowanie szkodliwych praktyk. Podobnie, szybki rozwój i wdrażanie generatywnych modeli sztucznej inteligencji wyprzedziły ramy regulacyjne i wytyczne etyczne, co budzi obawy dotyczące odpowiedzialnego użytkowania i potencjalnego nadużycia tej technologii.

Potrzeba rozważenia kwestii etycznych

Obie dyskusje na temat systemów algorytmicznych i generatywnej sztucznej inteligencji podkreślają wagę etycznych rozważań i odpowiedzialnych praktyk. O'Neil opowiada się za większą przejrzystością, rozliczalnością i uczciwością w algorytmicznym podejmowaniu decyzji, podczas gdy zwolennicy generatywnej sztucznej inteligencji podkreślają znaczenie etycznego projektowania, ograniczania uprzedzeń i przestrzegania wytycznych etycznych w tworzeniu treści.

Podsumowując, obawy poruszone w dokumencie „Weapons of Math Destruction” są zbieżne z negatywnym nastawieniem do generatywnej sztucznej inteligencji, szczególnie w odniesieniu do kwestii nieprzejrzystości, stronniczości, wpływu na społeczeństwo, nadzoru regulacyjnego i kwestii etycznych. Oba te zagadnienia podkreślają potrzebę większej świadomości, odpowiedzialności i etycznego zarządzania w rozwoju i wdrażaniu systemów algorytmicznych i technologii sztucznej inteligencji.

Biorąc pod uwagę wszystkie negatywne opinie na temat tej technologii, co należy, a czego nie należy robić w firmie? W tym poście przyjrzymy się jednemu nakazowi i jednemu zakazowi.

  • Zrozum, czego potrzebuje Twoja firma.
  • Nie lekceważ znaczenia prywatności danych.

 

Zrozum potrzeby swojego biznesu i dowiedz się, w jaki sposób sztuczna inteligencja generatywna może je zaspokoić.

Ogólnie rzecz biorąc, generatywna sztuczna inteligencja ma potencjał zrewolucjonizowania różnych aspektów działalności produkcyjnej, umożliwiając firmom wprowadzanie innowacji, optymalizację i skuteczniejsze dostosowywanie się do zmieniającej się dynamiki rynku. Wykorzystując możliwości generatywnej sztucznej inteligencji, firmy mogą zyskać przewagę konkurencyjną i napędzać zrównoważony wzrost w dzisiejszym, dynamicznie ewoluującym otoczeniu biznesowym.

Patrick Strauss omawia możliwości generatywnej sztucznej inteligencji w tworzeniu cyfrowych bliźniaków. Cyfrowy bliźniak to cyfrowa reprezentacja zasobu fizycznego. Wykorzystuje on dane ze świata rzeczywistego (zarówno w czasie rzeczywistym, jak i historyczne) w połączeniu z modelami inżynieryjnymi, symulacyjnymi lub uczenia maszynowego (ML), aby usprawnić działanie i wesprzeć proces podejmowania decyzji przez ludzi.

Generatywna sztuczna inteligencja ma zrewolucjonizować środowiska cyfrowe i cyfrowe bliźniaki, przekształcając je w „inteligentne środowiska” i „inteligentne bliźniaki”. Ta integracja będzie możliwa dzięki rozszerzeniu ludzkiej siły roboczej o generatywną sztuczną inteligencję, która może nawet umożliwić tworzenie „samojezdnych” cyfrowych bliźniaków i środowisk.

Oto kilka przykładów obszarów, w których sztuczna inteligencja generatywna może okazać się przydatna:

  • Projektowanie i prototypowanie produktów
  • Optymalizacja procesu produkcyjnego
  • Optymalizacja łańcucha dostaw.

 

Projektowanie produktów i prototypowanie

Projektowanie generatywne ma na celu tworzenie nowych kształtów, w tym kształtów, o których być może nigdy nie pomyślałeś, kształtów, które oferują przewagę wagową nad tradycyjnymi, poprzez efektywne umieszczanie materiału tam, gdzie jest potrzebny, i usuwanie go tam, gdzie nie jest potrzebny. VW Microbus przyciągał nieustanny strumień zwiedzających po promocji na głównej scenie.

Projektowanie generatywne ma na celu tworzenie nowych kształtów, w tym kształtów, o których być może nigdy nie pomyślałeś.

Generatywne algorytmy sztucznej inteligencji (AI) mogą wspomagać projektowanie i prototypowanie nowych produktów poprzez generowanie zróżnicowanych i innowacyjnych koncepcji projektowych w oparciu o określone parametry i ograniczenia. Firmy mogą wykorzystywać generatywną AI do szybkiego i efektywnego eksplorowania szerokiego zakresu możliwości projektowych, umożliwiając szybką iterację i optymalizację projektów produktów.

Zoptymalizowane procesy produkcyjne

Generatywna sztuczna inteligencja (AI) może analizować dane produkcyjne i identyfikować możliwości optymalizacji procesów produkcyjnych, takie jak poprawa wydajności produkcji, redukcja odpadów i minimalizacja przestojów. Generatywna sztuczna inteligencja może pomóc w optymalizacji wykorzystania materiałów i alokacji zasobów w procesie produkcyjnym.

Sztuczna inteligencja generatywna może analizować dane produkcyjne i identyfikować możliwości optymalizacji procesów produkcyjnych

Analizując właściwości materiałów i ograniczenia produkcyjne, generatywne algorytmy sztucznej inteligencji (AI) mogą sugerować modyfikacje projektu i zamienniki materiałów w celu minimalizacji odpadów, obniżenia kosztów produkcji i poprawy zrównoważonego rozwoju. Wykorzystując generatywne algorytmy AI, firmy produkcyjne mogą odkrywać optymalne parametry i konfiguracje procesów, które maksymalizują wydajność i minimalizują koszty.

Optymalizacja łańcucha dostaw

Generatywna sztuczna inteligencja może pomóc w optymalizacji łańcucha dostaw poprzez prognozowanie popytu, identyfikację potencjalnych wąskich gardeł i optymalizację poziomu zapasów. Analizując dane historyczne i informacje w czasie rzeczywistym, generatywne algorytmy sztucznej inteligencji mogą dostarczyć cennych informacji na temat dynamiki łańcucha dostaw, umożliwiając firmom podejmowanie świadomych decyzji i poprawę ogólnej efektywności.

Generatywna sztuczna inteligencja może pomóc zoptymalizować operacje łańcucha dostaw poprzez prognozowanie popytu, identyfikację potencjalnych wąskich gardeł i optymalizację poziomów zapasów.

Nie lekceważ znaczenia prywatności danych i kwestii etycznych w przypadku sztucznej inteligencji generatywnej

Twoi pracownicy prawdopodobnie już eksperymentują z ChatGPT, aby ułatwić sobie pracę. Zamiast całkowicie zakazywać jego używania, Gartner sugeruje stworzenie jasnej polityki zapobiegającej ukrytemu użyciu i zapewniającej zgodność z przepisami.

Uczyń politykę przejrzystą. Może ona polegać na określeniu trzech rzeczy, których nie należy robić, i dwóch rzeczy, które należy robić, zwłaszcza jeśli korzystasz z narzędzi takich jak ChatGPT lub podobnych gotowych modeli:

  • Nie podawaj żadnych danych osobowych.
  • Nie podawaj żadnych poufnych danych.
  • Nie podawaj żadnych tajemnic firmowych ani informacji stanowiących własność intelektualną.
  • Pamiętaj o wyłączeniu historii, jeśli korzystasz z zewnętrznych narzędzi (np. ChatGPT), które oferują taką opcję.
  • Uważnie śledź wyniki. Czasami mogą zawierać subtelne błędy, nieścisłości lub stronnicze stwierdzenia.

Wszystko zaczyna się od świadomości.

Aby zapobiec wprowadzaniu danych osobowych na platformy takie jak ChatGPT lub podobne generatywne modele sztucznej inteligencji, należy edukować użytkowników o znaczeniu ochrony danych osobowych i potencjalnych zagrożeniach związanych z wprowadzaniem danych wrażliwych na platformy oparte na sztucznej inteligencji. Należy podać jasne wytyczne i przykłady rodzajów informacji, których nie należy udostępniać. Należy jasno określić, jakie rodzaje informacji są uważane za poufne lub wrażliwe i nie powinny być wprowadzane na platformę.

Zachęcaj użytkowników do anonimizacji lub uogólniania danych wejściowych podczas interakcji z generatywnymi platformami AI. Zamiast używać prawdziwych nazwisk, adresów lub innych identyfikatorów osobowych, zachęcaj użytkowników do używania ogólnych symboli zastępczych lub fikcyjnych przykładów.

Oprócz wspomnianych wcześniej działań edukacyjnych i szkoleniowych, można wdrożyć pewne mechanizmy kontroli dostępu i uprawnienia, aby ograniczyć dostęp do ChatGPT w organizacji. Jeśli dostęp do narzędzi takich jak ChatGPT odbywa się za pośrednictwem usługi proxy, na przykład Infor OS ION API Gateway, możliwe jest zapewnienie rejestrowania i monitorowania.

Można przeprowadzać regularne przeglądy i analizy interakcji oraz wyników generowanych przez pracowników. Szukaj wszelkich wzorców lub anomalii, które mogą wskazywać na nadużycia lub problemy ze zgodnością.

Charles Korthout - Autor artykułu Generative AI na stronie p2-i.

 

Karol Korthout

Architekt rozwiązań w Partners 2 Innovate

 

 

Dołącz do nas na LinkedIn i stań na pierwszym planie innowacji, gdzie pomysły nabierają rozpędu, a relacje rodzą wielkość!