Выява: pixabay

Выява: pixabay

AI Index, незалежная ініцыятыва ад Stanford Institute for Human-Centered Artificial Intelligence (HAI), працавала над дакладам разам з разнастайнымі экспертамі з навуковых колаў і прадстаўнікамі прыватнай вытворчасці. Мэтай быў збор інфармацыі і прагнозаў, звязаных з развіццём ШІ. Хоць гэта можа быць ужо і не самым свежым поглядам на штучны інтэлект, але гэтыя перыядычныя (штогадовыя) апытанні важныя, каб трымаць руку на пульсе галіны, якая бурна развіваецца.

Сёлетні даклад сярод іншага ўключае аналіз асноўных мадэляў, выдаткаў на навучанне, уплыў сістэм ШІ на навакольнае асяроддзе, тэндэнцыі грамадскай думкі наконт ШІ, а таксама аналіз палітыкі краін адносна ШІ.

TechCrunch прыводзіць найважнейшыя, на іх погляд, высновы:

  • За апошняе дзесяцігоддзе развіццё ШІ пераключылася ад акадэмічных распрацовак да галіновых ужыванняў; і змен у гэтай тэндэнцыі не прадбачыцца.
  • Становіцца складана тэставаць мадэлі па традыцыйных крытэрыях, і тут можа спатрэбіцца новая парадыгма і падыход.
  • Энергетычны след навучання і выкарыстання ШІ становіцца значным, але нам яшчэ трэба будзе ўбачыць, як гэта можа павялічыць энергаэфектыўнасць у іншых месцах.
  • Колькасць «інцыдэнтаў і супярэчнасцяў, звязаных са ШІ, з 2012 года павялічылася ў 26 разоў.
  • Попыт на навыкі і аб'явы аб вакансіях, звязаных са ШІ», растуць, але не так хутка, як вы думаеце.
  • Палітыкі, аднак, спяшаюцца прадбачыць попыт, спрабуючы напісаць канчатковыя законапраекты аб ШІ.
  • Інвестыцыі часова прыпыніліся, аднак гэтаму папярэднічаў астранамічны рост цягам апошняга дзесяцігоддзя.
  • Больш за 70% рэспандэнтаў з Кітая, Саудаўскай Аравіі і Індыі лічаць, што ШІ мае больш пераваг, чым недахопаў. Сярод амерыканцаў так лічыць толькі 35%.

Справаздача падрабязна апісвае многія тэмы і падтэмы. TechCrunch, у прыватнасці, разглядае рост колькасці «інцыдэнтаў і супярэчнасцяў, звязаных са ШІ».

Графік, які ілюструе колькасць інцыдэнтаў і супярэчнасцяў са ШІ / Выява: Stanford HAI

Графік, які ілюструе колькасць інцыдэнтаў і супярэчнасцяў са ШІ / Выява: Stanford HAI

Натуральна, тэндэнцыя ўзрастае, і гэтыя лічбы з'явіліся яшчэ да стварэння ChatGPT і іншых вялікіх моўных мадэляў, не кажучы ўжо пра значнае паляпшэнне генератараў малюнкаў. Таму можна з упэўненасцю казаць, што павелічэнне ў 26 разоў — гэта толькі пачатак.

Вялікія пытанні выклікае аптымізацыя моўных мадэляў па крытэрыях «справядлівасць і непрадузятасць», напрыклад, па гендарных, расавых і іншых сацыяльных прыкметах. Аналіз паказвае, што аптымізацыя не такая простая, як усе спадзяюцца. Няма простага рашэння для паляпшэння вялікіх мадэляў ШІ, часткова таму, што мы самі не да канца разумеем, як яны працуюць.

Праверка фактаў — адзін з варыянтаў, якія выглядалі б як натуральны падыход да вырашэння падобных праблем: праіндэксаваўшы вялікую частку інтэрнэту, ШІ мог бы ацэньваць канкрэтныя сцвярджэнні і вяртаць упэўненасць у тым, што яны зыходзяць з праўдзівых крыніц, разважаюць эксперты. Але гэта вельмі далёка ад таго, што адбываецца. 

Насамрэч асабліва дрэнна ШІ ацэньвае менавіта фактычнасць — і рызыка тут заключаецца не столькі ў тым, што мадэлі будуць ненадзейнымі фактчэкерамі, колькі ў тым, што яны самі стануць важнымі крыніцамі пераканаўчай дэзынфармацыі.

Праца над паляпшэннем праверкі фактаў штучным інтэлектам ужо вядзецца, але пакуль сітуацыя тут стаіць на месцы. Пры гэтым, аднак, пазітыўнай тэндэнцыяй выглядае вялікі ўздым грамадскай цікавасці: калі людзі адчуваюць, што не могуць давяраць штучнаму інтэлекту, уся галіна можа адкочвацца назад ці тармазіць.

Гэтыя асноўныя моманты пакідаюць на стале шмат дэталяў. Каманда HAI прарабіла выдатную працу, і кожны можа адкрыць поўную версію артыкула ды паглыбіцца ў любую тэму, якая выклікае цікавасць.

Клас
8
Панылы сорам
0
Ха-ха
0
Ого
3
Сумна
0
Абуральна
2