Dvi Vatikano dikasterijos paskelbė bendrą dokumentą apie dirbtinį intelektą

ŠaltinisVATICAN NEWS

Tikėjimo mokymo dikasterija kartu su Švietimo ir kultūros dikasterija parengė dokumentą, kuriame apžvelgiamos dirbtinio intelekto teikiamos galimybės, pastaruoju metu labai išpopuliarėjęs jo naudojimas, o taip pat su naujųjų technologijų plėtra ir naudojimu susiję etiniai klausimai.

Antiqua et nova („Sena ir nauja“) – 45 puslapių dokumentas buvo paskelbtas Vatikane antradienį, sausio 28 d.

Šventojo Sosto Komunikacijos dikasterijos vyriausiasis redaktorius Andrea Tornielli paskelbė komentarą, kuriame apžvelgia pagrindinius dokumente svarstomus dalykus. Komentare visų pirma atkreipiamas dėmesys į tai, kad pats terminas „dirbtinis intelektas“ nelabai tiksliai ar netgi klaidingai apibūdina reiškinį, kuriam apibrėžti jis yra vartojamas.

„Dirbtinis intelektas“ yra ne intelektas, bet instrumentas. Jis vykdo užduotis, atlieka skaičiavimus, o ne mąsto. Todėl klaidinga jam priskirti žmogiškąsias savybes, nes jis tiesų tai logikos-matematikos srities operacijos, kurias atlieka skaičiavimo mašina.

O tai reiškia, kad dirbtinis intelektas neturi nei semantinio tikrovės supratimo, nei intuityvių ir kūrybinių gebėjimų. Jis negali turėti nei moralinio įžvalgumo, nei nesuinteresuoto atvirumo tam, kas yra teisinga, gera ir gražu. Kitaip tariant dirbtinis intelektas neturi to, kas žmogaus intelektą daro tikrai žmogišką.

Žmogaus intelektas iš tiesų yra individualus ir kartu socialinis, racionalus ir kartu jausmingas. Jis veikia per santykius, kuriems tarpininkauja žmogaus asmens kūniškumas. Todėl dirbtinis intelektas turėtų būti suvokiamas tik kaip žmogaus intelektą papildanti priemonė, o ne kaip galimas jo pakaitalas.

dirbtinis intelektas neturi nei semantinio tikrovės supratimo, nei intuityvių ir kūrybinių gebėjimų.

Nepaisant mokslinių tyrimų pažangos ir vis didesnių taikymo galimybių, dirbtinis intelektas ir toliau bus įrankis, neturintis moralinės atsakomybės. Kai tuo tarpu atsakomybę visada turės prisiimti tie, kurie jį naudoja. Dėl šios priežasties dviejų Šventojo Sosto dikasterijų paskelbtame dokumente pabrėžiama tų, kurie naudojasi dirbtiniu intelektu, atsakomybė, kuri turi būti aiškiai suvokiama kiekviename naudojimosi šia priemone etape.

Tikslai, kurių siekiama naudojant dirbtinį intelektą, turi gerbti ir skatinti žmogaus orumą ir bendrąjį gėrį. Pagal pastarąjį kriterijų turi būti vertinamas dirbtinio intelekto naudojimo leistinumas, rašo Andrea Tornielli.

Dokumente Antiqua et nova sakoma, kad dirbtinio intelekto naudojimo vertinimo kriterijai taip pat turi būti susiję su žmogaus pozityvaus santykio su gamtine aplinka skatinimu, konstruktyvių tarpasmeninių ir socialinių ryšių kūrimu, su atsakomybės už bendrąjį gėrį stiprinimu.

Siekiant šių tikslų negalima apsiriboti vien tik duomenų ir žinių kaupimu, bet reikia siekti tikros „širdies išminties“, kad dirbtinio intelekto naudojimas padėtų žmogui iš tikrųjų tapti geresniam. Dokumente minimas ir marginalizacijos ir nelygybės augimo pavojus, kurį gali atnešti žmogaus darbo pakeitimas mašinų darbu.

Kartu su dirbtinio intelekto plėtojimu turi būti plėtojamos ir priemonės, kurios padėtų atpažinti ir demaskuoti dezinformaciją ir klastotes, kuriamas neetiškai naudojant dirbtinį intelektą. Šioje srityje svarbus ne tik specialistų darbas, bet ir informacijos vartotojų apdairumas.

Galiausiai savo apžvalgoje Komunikacijos dikasterijos vyriausiasis redaktorius Andrea Tornielli mini naujame dokumente iškeltą dirbtinio intelekto kaip ginklo naudojimą. Neleistina, kad mašinai būtų patikėtas pasirinkimas atimti ar ne žmogaus gyvybę

Būtume dėkingi, jei mus paremtumėte
Exit mobile version