
Wednesday Mar 05, 2025
#13 - Sztuczna Inteligencja: Zagrożenia i Świadomość | prof. Tomasz Trzciński
Temat sztucznej inteligencji jest obecnie jednym z najgorętszych zagadnień. Myślę, że każdy, kto śledzi rozwój tej technologii, zna uczucie jednoczesnej ekscytacji tym, co udało się dotychczas osiągnąć, połączonej z nutką strachu przed konsekwencjami i potencjalnymi zagrożeniami.
Z jednej strony możemy upatrywać w tej technologii rozwiązania wielu ludzkich problemów, ale z drugiej strony coraz bardziej realne stają się zagrożenia wynikające z jej szerokiego zastosowania. Dodatkowo pojawiają się pytania natury filozoficznej – czy te systemy są faktycznie inteligentne, a także czy mogą posiadać świadomość.
W dzisiejszym odcinku miałem przyjemność porozmawiać zarówno o zagrożeniach, jak i o bardziej filozoficznych aspektach współczesnych algorytmów uczenia maszynowego z prof. Tomaszem Trzcińskim.
----------
Tomasz Trzciński jest specjalistą w dziedzinie uczenia maszynowego oraz profesorem na Politechnice Warszawskiej, gdzie kieruje zespołem zajmującym się widzeniem maszynowym CVLab. Oprócz działalności akademickiej posiada także bogate doświadczenie badawcze i przemysłowe, zdobyte podczas wielu staży, m.in. na Uniwersytecie Stanforda, a także pracy w Google, Qualcomm i Telefónice. Obecnie pełni również funkcję głównego naukowca (Chief Scientist) i jest współwłaścicielem firmy Tooploox, zajmującej się wdrażaniem sztucznej inteligencji w biznesie.
Wikipedia: https://pl.wikipedia.org/wiki/Tomasz_Trzci%C5%84ski
Strona: https://cvlab.ii.pw.edu.pl/ttrzcins/index-pl.html
----------
W dzisiejszym odcinku rozmawiamy o zagrożeniach i ograniczeniach obecnych systemów sztucznej inteligencji, problemie danych, a także perspektywach oraz wyścigu do stworzenia ogólnej sztucznej inteligencji. Poruszamy również kwestię alignmentu, zmian społecznych związanych z rozwojem algorytmów uczenia maszynowego, a także temat tego, czy te systemy mogą być świadome i jak może wyglądać ich dalszy rozwój.
----------
Rozdziały:
00:00:00 Wstęp
00:01:48 Spektrum zagrożeń
00:03:55 Kontrola przy braku zrozumienia
00:06:30 Ograniczenia modeli AI
00:09:50 Problem danych
00:11:51 Rozumienie świata przez modele
00:15:53 Możliwość osiągnięcia AGI
00:22:42 Modele reasoningowe (rozumujące)
00:23:44 Problem alignmentu (dopasowania wartości)
00:29:19 Kontrola superinteligencji i AGI
00:31:29 Udział AI w codziennym życiu
00:34:11 Edukacja w dobie AI
00:39:51 Dlaczego modele nie mówią "nie wiem"?
00:48:09 Świadomość modeli AI
00:59:20 Przetwarzanie informacji a społeczeństwo
01:02:45 Obiecujące kierunki rozwoju
----------
Znajdziesz mnie także na Instagramie: https://www.instagram.com/to.bardziej.skomplikowane/
Comments (0)
To leave or reply to comments, please download free Podbean or
No Comments
To leave or reply to comments,
please download free Podbean App.