سۈنئىي ئەقىل ۋە deepfake: جىن شېشىدىن چىقتى
ھوللىۋود ۋە ۋاشىنگتوندىن تارتىپ ئاممىۋى تاراتقۇ ئېقىنلىرىغىچە ۋە دۇنيا مىقياسىدىكى ئىنتېرنېتقىچە، «چوڭقۇر ئۆگىنىش» (deep learning) ۋە «ساختا» (fake) سۆزلىرىنىڭ بىرلىشىشىدىن ياسالغان — deepfake ۋە باشقا سۈنئىي ئەقىل ياردىمىدىكى سۇنئىي مېدىيا مەزمۇنلىرى تەسەۋۋۇرىمىزدىكىدىنمۇ تېز كۆپەيمەكتە.
سۈنئىي ئەقىل ۋە deepfake: جىن شېشىدىن چىقتى
سۈنئىي ئەقىل ۋە deepfake: جىن شېشىدىن چىقتى
27 de enero de 2025

مارىيون فېرناندو

 

ھوللىۋود ۋە ۋاشىنگتوندىن تارتىپ ئاممىۋى تاراتقۇ ئېقىنلىرىغىچە ۋە دۇنيا مىقياسىدىكى ئىنتېرنېتقىچە، «چوڭقۇر ئۆگىنىش» (deep learning) ۋە «ساختا» (fake) سۆزلىرىنىڭ بىرلىشىشىدىن ياسالغان — deepfake ۋە باشقا سۈنئىي ئەقىل ياردىمىدىكى سۇنئىي مېدىيا مەزمۇنلىرى تەسەۋۋۇرىمىزدىكىدىنمۇ تېز كۆپەيمەكتە.

پەقەت 2023-يىلىلا كەم دېگەندە 95 مىڭ 820 deepfake ۋىدېئوسى توردا ئاشكارىلانغانلىقى ئېنىقلاپ چىقىلدى.

شۇنداق، پۇلىتزېر مۇكاپاتىغا ئېرىشكەن تولغىما ئۇسسۇل ناخشىچىسى كېندرىك لامارنىڭ 2022-يىلىدىكى «The Heart Part 5» ناملىق ناخشىسىدا كانيې، ۋىل سمىت ۋە نىپسېي قاتارلىق نامايەندىلەرگە ئايلىنىشىنى كۆرۈش تولىمۇ قالتىس ۋە قىزىقارلىق. ئەگەر سىز «‹Game of Thrones› تەخت ئويۇنلىرى» ناملىق تېلېۋىزىيە تىياتىرىنىڭ سىمۋوللۇق ئاخىرقى قىسمىدىن يەنىلا نارازى بولغانلار ئارىسىدا بولسىڭىز، جون سنوۋنىڭ بۇ تىلېۋىزىيە تىياتىرىنىڭ ئاخىرقى قىسمىنىڭ سېنارىيەسى ئۈچۈن كەچۈرۈم سورىغان ساختا كۆرۈنۈشىنى قايتا-قايتا كۆرگىنىڭىزدە، بەلكىم بىر خىل (مۇزىكا ياكى دىراما ئارقىلىق)  ھېسسىياتىڭىزنى تەڭشەشكە ئېتىياجىڭىز چۈشۈشى مۇمكىن.

ئەمما بۇنداق سۈنئىي ئەقىل ئارقىلىق كونترول قىلىش تېخىمۇ يامان غەرەزدە ئىشلىتىلسە ئاقىۋىتى قانداق بولىدۇ؟ سانلىق مەلۇماتلار ۋە تەكشۈرۈشلەردىن ئايان بولۇشىچە، كۆپ ساندىكى كىشىلەر deepfake لارنى ئىشەنچلىك شەكىلدە پەرقلەندۈرەلمەيدىكەن، يەنە بەزىلەر كېيىنچە ئۇلار ھەقىقىي دەپ قارىغان سىنلارنىڭ ساختا ئىكەنلىكىنى ھېس قىلغان.

ئەمما بۇنداق سۈنئىي ئەقىل ماسلاشتۇرۇشلىرى تېخىمۇ يامان نىيەتلەر ئۈچۈن ئىشلىتىلگەن ئەھۋالدا قانداق ئاقىۋەتلەر كېلىپ چىقىدۇ؟ سانلىق مەلۇماتلار ۋە تەكشۈرۈشلەر، كۆپ ساندىكى كىشىلەرنىڭ deepfake لارنى ئىشەنچلىك شەكىلدە پەرقلەندۈرەلمەيدىغانلىقىنى، بەزىلەر دەسلەپتە ھەقىقىي دەپ ئويلىغان سىنلارنىڭ كېيىنچە ساختا ئىكەنلىكىنى چۈشىنىپ يېتىدىكەن.

كۆپىنچە deepfake لار كەلتۈرۈپ چىقىرىدىغان خەۋپلەرگە كەلسەك، سىياسىي ساختا ئۇچۇرلار  ئادەمنىڭ كۆز ئالدىغا كېلىدۇ. ئەمما بۇ تېخنولوگىيە داڭلىق پوپ ناخشا چولپىنى تايلور سۋىفت قاتارلىق شەخسلەرنى ئۆز ئىچىگە ئالغان ئاياللارنى پاراكەندە قىلىش ۋە خورلاش مەقسىتىدە ئىشلىتىلىۋاتىدۇ. داڭلىق بولۇش ۋە ئىمتىيازلارغا ئىگە بولۇشنىڭمۇ سۋىفتنى، ئۇنىڭ رۇخسىتىسىز بارلىققا كەلگەن شەھۋانىي مەزمۇنلارنىڭ نىشانىدىن ساقلاپ قالالمايدىغانلىقى ئوتتۇرىغا چىقتى.

لاۋال ئۇنىۋېرسىتېتى ئۇچۇر ۋە ئالاقە بۆلۈمىنىڭ ياردەمچى دوتسېنتى سوفىيە توپىن «‹TRT World› تېلېۋىزىيە قانىلى» غا بەرگەن باياناتىدا مۇنداق دەيدۇ: «تولىمۇ ئەپسۇسكى، deepfake لارنىڭ ئاياللارنى كەمسىتىش ئۈچۈن ئىشلىتىلىشىگە ھەيران قالماسلىقىمىز كېرەك.»

يانۋار ئېيىنىڭ ئاخىرلىرى «Anti-Hero» ناخشىچىسىغا ئائىت جىنسىي مەزمۇنلۇق deepfake كۆرۈنۈشلىرى ئاممىۋى تاراتقۇدا تارقىلىپ كەتكەندە، سۋىفتنىڭ «Swifties» دەپ تونۇلغان ئىخلاسمەن مەستانىلىرى گۇرۇپپىسى ھەرىكەتكە ئۆتتى. بۇ مۇخلىسلار ئاممىۋى ئورتاقلىشىش تور بېتى X سەھىپىسىنى سۋىفتنىڭ ئىجابىي سۈرەتلىرى بىلەن تولدۇرۇپ، deepfake مەزمۇنلارنى تارقاتقان سەھىپىلەرنى ئاشكارىلىدى. شۇنىڭ بىلەن، #ProtectTaylorSwift خەتكۈچلۈك ئۇچۇر ئەڭ كۆپ كۆرۈلگەن ئۇچۇرغا ئايلاندى.

توپىننىڭ قارىشىچە، سۋىفتنىڭ مەستانىلىرىنىڭ بۇ شەكىلدە ئىنكاس قايتۇرۇشى ئىجتىمائىي ۋە مەدەنىيەت جەھەتتىن ناھايىتى زور ئەھمىيەتكە ئىگە ئىكەن. بۇ ئەھۋال سۈنئىي ئەقىل بىلەن مەيدانغا كەلتۈرۈلگەن سۈنئىي مېدىيانىڭ قوبۇل قىلىشقا بولىدىغان ياكى بولمايدىغانلىقىغا دائىر پىرىنسىپلارنىڭ ئورنىتىلىشىدا تۈرتكىلىك رول ئوينايدۇ — گەرچە سىز دۇنيانىڭ ئەڭ داڭلىق پوپ چولپانلىرىدىن بىرى بولسىڭىزمۇ ياكى بولمىسىڭىزمۇ شۇنداق، ئەلۋەتتە.

توپىن يەنە مۇنداق دەيدۇ: «بۇ تېز ئىنكاس ناھايىتى مۇۋەپپەقىيەتلىك بولسىمۇ، ھەممە ئادەمنىڭ بۇنداق كۈچلۈك قوللايدىغان بىر مەستانىلەرگە ئىگە بولالمايدىغانلىقىنى قوبۇل قىلىش كېرەك. تايلور سۋىفتنىڭ مەستانىلىرى  ئاياللار ھوقۇقىنى قوغدىغۇچىلارنىڭ ئوچۇق-ئاشكارا ھالدا ‹بۇنى قوبۇل قىلغىلى بولمايدۇ› دېگەن ئىنكاسنىڭ مۇھىم بىر مىسالىنى كۆرسىتىپ بەردى. بۇ خىل پەسكەش قىلمىشلارغا ئۇچرىغان بارلىق ئاياللار ۋە قىزلارنىڭ مۇشۇنىڭغا ئوخشاش تېز قوللاشقا ئېرىشىشىنى ئۈمىد قىلىمەن. ئەسلىدە توردىكى ئاياللارغا ئۆچمەنلىك قىلىش ۋە ئىرقچىلىق خاراكتېرلىك ساختا سۈنئىي ئەقىل مەزمۇنلىرىغا ‹تاقابىل تۇرۇش› ئۈچۈن بىز موھتاج بولۇۋاتقان نەرسىمۇ دەل مۇشۇ خىلدىكى جەمئىيەت خاراكتېرلىك ھەمكارلىقتۇر.»

ئاددىي قىلىپ ئېيتقاندا، deepfake بىر ئادەمنىڭ يۈزى ۋە كۆرۈنۈشىنى سىنلاردا باشقا بىر ئادەم بىلەن ئالماشتۇرىدىغان بىر خىل سۈنئىي ئەقىل ئاساسىدىكى سۈنئىي ئۇچۇردۇر.

بۇ ساھە تۇنجى قېتىم 2017-يىلى Reddit تا «Deepfakes» تەخەللۇسلۇق بىر ئىشلەتكۈچىنىڭ، چوڭلار فىلىملىرىدىكى ئاياللارنىڭ بەدىنىگە داڭلىق كىشىلەرنىڭ يۈزلىرىنى قوندۇرۇپ، رۇخسەتسىز ۋە رەقەملىك ئۆزگەرتىلگەن چوڭلار مەزمۇنلىرىنى تارقىتىشى بىلەن تېز راۋاجلاندى.

بۇ ئىشلەتكۈچى Vice دىن Motherboard غىچە سۆز قىلغاندا،  ۋىدېئولارنى ئىشلەش ئۈچۈن Google نىڭ ھەقسىز ئىشلىتىلىدىغان TensorFlow غا ئوخشاش بىرقانچە ئوچۇق كودلۇق سانلىق مەلۇمات ئامبارلىرىدىن پايدىلانغانلىقىنى ئىپادىلىگەنىدى.

توپىن مۇنداق دەيدۇ: «تېخنىكىلىق نۇقتىدىن ئېيتقاندا، بۇنى ئەستە تۇتۇش تولىمۇ مۇھىم: نۇرغۇن كىشىلەرنىڭ سۈنئىي ئەقىل ئارقىلىق ئىشلەپچىقىرىلغان deepfake لارنى ئاسانلا ياساپ چىقىش ئىقتىدارى ھازىرقى سۈنئىي ئەقىل يۇمشاق دېتاللىرىنىڭ ئىقتىدارىنى ئاساس قىلىدۇ. بۇ يۇمشاق دېتاللار يېقىنقى 20 يىلدا تور ئابونتلىرى بولۇش سۈپىتىمىز بىلەن بىز ئىشلەپچىقارغان ۋە ھەمبەھىرلىگەن ناھايىتى كۆپ مەزمۇنلار ئۈستىدە سىناق قىلىندى. . بۇ، ئېسىمىزدە تۇتۇشىمىزغا تېگىشلىك مۇھىم مەسىلە.»

سۋىفتقا قارشى يۈز بەرگەن ۋەقەلەردىن كېيىن، قانۇن تۈزگۈچىلەر ۋە ئاددىي پۇقرالار ئاۋىستىرالىيەدىن ئىسپانىيەگىچە ۋە بۇ ئىككىسىنىڭ ئارىسىدىكى ھەر يەرگىچە تېز ۋە قورقۇنچلۇق شەكىلدە كۆپىيىۋاتقان، كۆپىنچە ئاياللار ۋە بالىلارغا زىيان يەتكۈزىدىغان بۇ سۈنئىي ئەقىل ئاساسىدىكى كۆرۈنۈشلەر ئالدىدا ئۇلارنى تېخىمۇ كۈچلۈك قوغداشنى تەلەپ قىلدى.

يېقىندا ۋىكتورىيە پارلامېنت ئەزاسى گېئورگىي پۇرسېلل يەرلىك بىر مېدىيا ئورگىنىنى ئۆزىنىڭ بەدىنىنى ئەسلىدىكىدىن چوڭراق كۆرسىتىش، كۆكرىكىنى چوڭايتىش ۋە كىيىمىنى تېخىمۇ ئوچۇق ھالغا كەلتۈرۈش ئارقىلىق سۈرىتىنى ئۆزگەرتىش بىلەن ئەيىبلىدى ھەمدە بۇنى مېدىيادا ئايال سىياسەتچىلەرگە قارشى «داۋاملىق ۋە يوشۇرۇن» شەكىلدە قىلىنغان كەمسىتىش مۇئامىلىلىرىگە مىسال قىلىپ كۆرسەتتى.

ۋىكتورىيە ئىشتاتى پارلامېنت ئەزاسى جورجى پورسېل ئاممىۋى ئورتاقلىشىش تور بېتىدىكى سەھىپىسىدە مۇنداق دەيدۇ: «تۈنۈگۈن مەن نۇرغۇن ئىشلارنى باشتىن كەچۈردۈم. بىراق مېنىڭ بەدىنىم ۋە كىيىملىرىمنىڭ تاراتقۇلار تەرىپىدىن فوتوشوپ بىلەن ئۆزگەرتىلىشى مەن ئويلاپمۇ باقمىغان ئىش ئىدى. كۆكرىكىمنىڭ چوڭراق كۆرسىتىلگەنلىكىگە ۋە كىيىمىمنىڭ تېخىمۇ ئوچۇق ھالغا كەلتۈرۈلگەنلىكىگە دىققەت قىلىڭ. بىر ئەر پارلامېنت ئەزاسىنىڭ بېشىغا بۇنداق ئىش كېلىدۇ دەپ تەسەۋۋۇر قىلالامسىز؟ بۇ زادى نېمە ئىش؟— جورجى پورسېل (@georgievpurcell) 2024-يىلى 29-يانۋار.»

2023-يىلىدىكى بىر دوكلاتقا كۆرە، deepfake پورنوگرافىيەسى توردىكى بارلىق deepfake سىنلارنىڭ 98 پىرسەنتىنى تەشكىل قىلىدىكەن ۋە deepfake پورنوگرافىيەسىنىڭ نىشانىغا ئايلىنىپ قالغان كىشىلەرنىڭ 99 پىرسەنتى ئاياللاردىن تەشكىل تاپىدىكەن. بۇ ئەھۋال تېخىمۇ ياخشى تەرتىپكە سېلىشنىڭ زۆرۈرلۈكىنى ئېنىق چۈشەندۈرۈپ بېرىدىكەن.

توپىن مۇنداق دەيدۇ: «شۇنى ئۇنتۇپ قالماسلىقىمىز كېرەككى، ئەگەر بىز كىشىلەرنىڭ رۇخسىتىسىز ياسالغان بىرىكمە مېدىيانى ئىستېمال قىلساق، ئۇ چاغدا بىزمۇ مەسىلىنىڭ بىر تەرەپدارىغا ئايلىنىپ قالىمىز. سىزنىڭ جىنسىي كەمسىتىشكە ئاساسلانغان رەقەملىك زوراۋانلىقتىن ھۇزۇر ئالغانلىقىڭىزنى چۈشىنىشىڭىز مۇھىم.»

قانچىلىك يېڭىلىق بولۇشىدىن قەتئىينەزەر، deepfake دەۋرى قانۇن چىقىرىش ئورگانلىرى ۋە ھۆكۈمەتلەر ئۈچۈن يېڭى قىيىنچىلىقلار ۋە ئەندىشىلەرنى پەيدا قىلماقتا. خالىغان ۋاقىتتا، ھەر ئادەمنىڭ ئاغزىدىن ھەر نەرسىنى دېگۈزەلەيدىغان بۇ تېخنولوگىيەنى توغرا شەكىلدە تەرتىپكە سېلىش ئۈچۈن تىرىشىۋاتقان قانۇن تۈزگۈچىلەرنىڭ ئىشى ھېچ ئاسان ئەمەس.

ياۋروپا ئىتتىپاقى بىخەتەرلىك ھەمكارلىق ئىدارىسىنىڭ (Europol) 2022-يىلىدىكى بىر دوكلاتىغا قارىغاندا، ساختا ئۇچۇر ۋە deepfake بىلەن ياسالغان سىن ھەم كۆرۈنۈشلەرنىڭ كۆپىيىشى كىشىلەرنىڭ ھوقۇق ۋە خەۋەر تارقاتقۇچى مېدىيانى قوبۇل قىلىش ئۇسۇلىدا چوڭقۇر تەسىر پەيدا قىلىدىكەن، شۇنىڭ بىلەن بىرگە ھوقۇقدارلارغا ۋە رەسمىي ئۇچۇرلارغا بولغان ئىشەنچنى تەۋرىتىۋېتىدىكەن.

ياۋروپا ئىتتىپاقى بىخەتەرلىك ھەمكارلىق ئىدارىسىنىڭ دوكلاتىدا مۇنداق دېيىلىدۇ: «مۇتەخەسسىسلەر بۇنداق بىر ئەھۋالنىڭ پۇقرالارنىڭ ئەمدى ئورتاق رېئاللىقىنىڭ قالماسلىقىغا ياكى قايسى ئۇچۇر مەنبەلىرىنىڭ ئىشەنچلىك ئىكەنلىكى ھەققىدە جەمئىيەتتە بىر قالايمىقانچىلىق كېلىپ چىقىشىدىن ئەندىشە قىلماقتا. بۇ ئەھۋال بەزىدە ‹ئۇچۇر قىيامىتى› ياكى ‹رېئاللىققا بىپەرۋالىق قىلىش› دەپ ئاتىلىدۇ.»

ئۇزۇن يىللار داۋامىدا كىشىلەر ئوقۇغان ھەرقانداق ئۇچۇرنى چىن ھەقىقەت سۈپىتىدە قوبۇل قىلىشتىن بۇرۇن سۈرەت ۋە سىنلارغا مۇراجىئەت قىلىپ دەلىللەشكە تىرىشتى؛ ئۇلار ئاساسلىقى «كۆرمەي تۇرۇپ ئىشەنمە» دېگەن نەسىھەتكە ئەمەل قىلاتتى.

نويابىر ئېيىدىكى پىرېزىدېنتلىق سايلىمى يېقىنلاشقانسېرى ئەڭ يېڭى مەلۇماتلار ئامېرىكالىقلارنىڭ نامزاتلار ۋە سىياسىي شەخسلەر بىلەن مۇناسىۋەتلىك سۈنئىي ئەقىل ۋە deepfake ئىشلىتىلىشىدىن «ئىنتايىن ئەندىشە قىلىۋاتقانلىقى» نى كۆرسىتىدۇ. قايسى پارتىيە بولۇشىغا قارىماي، سايلىغۇچىلارنىڭ كۆپ قىسمى بۇ تېخنولوگىيەنىڭ مۇۋاپىق شەكىلدە تەرتىپكە سېلىنىشى كېرەكلىكىگە ئىشىنىدۇ.

ئۇلارنىڭ ئەندىشىلىرى ئاساسسىزمۇ ئەمەس. پەقەت ئۆتكەن ئايدا، يانۋار ئېيىدا، پىرېزىدېنت جو بايدىننىڭ سۈنئىي ئەقىل تەرىپىدىن ئىشلەپچىقىرىلغان ئاۋازىنى دوراپ ياسالغان ساختا بىر روبوت تېلېفونى، نيۇ-خەمپشىر ئاھالىلىرىغا بۇ ئىشتاتنىڭ دەسلەپكى سايلىمىدا دېموكراتلار پارتىيەسى نامزاتىغا ئاۋاز بەرمەسلىكىنى ئېيتتى.

2023-يىلى سېنتەبىر ئېيىدا، فلورىدا ۋالىيسى رون دېسانتىس 2024-يىللىق پىرېزىدېنتلىق سايلىمىدىن چېكىنگەنلىكىنى جاكارلىغانلىقىغا دائىر بىر deepfake سىنىنىڭ ھۇجۇم نىشانى بولدى. ھالبۇكى، بۇنىڭدىن بىر قانچە ئاي ئىلگىرى دېسانتىس گۇرۇپپىسى سابىق پىرېزىدېنت دونالد ترامپ بىلەن ئانتونى فاۋچىنىڭ سۈنئىي ئەقىل بىلەن ئۆزگەرتىلگەن بىر – بىرى بىلەن قۇچاقلاشقان ھالەتتىكى بىر سىننى تارقاتقانىدى.

تېخنولوگىيە ساھەسى ئانالىزچىسى چارلېس كىڭ Forbes ژۇرنىلى بىلەن ئۆتكۈزگەن سۆھبىتىدە مۇنداق دەيدۇ: «بۇ خىل نەرسىلەرنى ياساش ئۈچۈن كېرەكلىك بولغان قوراللار ۋە سىستېمىلارنى تېپىش ناھايىتى ئاسان. مۇھىم بولغىنى، ئامېرىكادىكى نۆۋەتتىكى سىياسىي مۇھىت شۇنچىلىك پارچىلىنىپ كەتكەن ۋە بەتبەشىرە بولۇپ كەتكەنكى، ھەر ئىككى تەرەپتە قارشى تەرەپ ھەققىدىكى ئەڭ يامان نەرسىلەرگە ئىشىنىشكە تەييار ھالەتتە تۇرۇۋاتقان ناھايىتى كۆپ كىشىلەر بار.»

ئاخباراتچىلىق ۋە تەكشۈرۈش خىزمەتلىرىدە ئۈن-سىن خاتىرىلىرى، فوتو سۈرەتلەر ۋە تېكىستلەر ھەمىشە ئىشەنچلىك ئىسپات دەپ قارىلىدۇ، بۇلار ھەقىقىي ۋە نېمىنىڭ ساختا ئىكەنلىكىنى ئېنىقلاشقا ياردەم بېرىدۇ. ئىلگىرى Photoshop غا ئوخشاش رەقەملىك ماسلاشتۇرۇش قوراللىرى بار ئىدى، ئەمما قىلىنغان ساختىپەزلىكنىڭ ئىزلىرىنى يوشۇرۇش ئادەتتە مەلۇم مۇتەخەسسىسلىكنى تەلەپ قىلاتتى. ئۇنىڭ ئۈستىگە، ئۆزگەرتىلگەن كۆرۈنۈشلەر سۈنئىي ئەقىل تېخنولوگىيەلىرىنىڭ ئوتتۇرىغا قويغىنىدەك مۇرەككەپمۇ ئەمەس ئىدى.

سۈنئىي ئەقىل ئىشقا چۈشكەندە بولسا خاتا ئۇچۇر تارقىتىش ئېھتىماللىقى ھەسسىلەپ ئاشىدۇ؛ بولۇپمۇ توقۇنۇش ۋە ئۇرۇش ۋاقىتلىرىدا. GDELT لايىھەسى (دۇنيا بويىچە يۈز بەرگەن ۋەقەلەر، تىللار ۋە ئاۋازلارنىڭ رېئال ۋاقىتلىق سانلىق مەلۇمات ئامبىرى)  نىڭ قۇرغۇچىسى دوكتور كالېۋ ھاننېس لېتارۇ بۇ خەۋپنىڭ ناھايىتى چوڭلۇقىنى تەكىتلىمەكتە.

 ئىلغار تېخنولوگىيەلەردىن پايدىلىنىش ۋە بۇ تېخنولوگىيەلەرنىڭ دۇنياۋى جەمئىيەتنى قانداق قايتا شەكىللەندۈرۈۋاتقانلىقىنى چۈشىنىشكە مەركەزلەشكەن ھالدا تەتقىقاتلارنى ئېلىپ بېرىۋاتقان لېتارۇ، «‹TRT World› تېلېۋىزىيە قانىلى» غا بەرگەن باياناتىدا: مۇنداق دەيدۇ:  «يامان نىيەتلىك كۈچلەرنىڭ — بۇ مەيلى غەززە بولسۇن، ئۇكرائىنا بولسۇن ياكى باشقا توقۇنۇش رايونى بولسۇن — بۇ قوراللارنى ئىشلىتىپ ساختا ئۇچۇرلارنى كەڭ كۆلەمدە ياساپ تارقىتىش يوشۇرۇن كۈچى ھازىر ئىنتايىن يۇقىرى.

«ھەرقانداق ئىجتىمائىي ئالاقە سۇپىسى ياكى يامان نىيەتلىك بىر كۈچ پۈتۈن بىر دۆلەتنىڭ نوپۇسىغا قاراپ، ئۆزىنىڭ ئىجتىمائىي ئالاقە ئارقا كۆرۈنۈشىگە ئاساسەن ئۆزى خالىغان كىشى/كىشىلەر/گۇرۇپپىنى ھۇجۇم نىشانى قىلالايدۇ ۋە ئۇلارنى ھەددىدىن زىيادە ئاچچىقلاندۇرىدىغان ۋە قۇترىتىدىغان مەزمۇنلارنى تارقىتىدۇ. ياكى بۇنىڭ دەل ئەكسىچە، توقۇنۇش رايونىدىن كەلگەن ھەقىقىي ئۇرۇش جىنايىتى ھۆججەتلىرىنى ئاسانلا يوشۇرالايدۇ.»

2022-يىلى ئۇكرائىنا پىرېزىدېنتى ۋولودىمىر زېلېنسكىينىڭ ئەسكەرلىرىگە رۇسىيەگە قارشى قوراللىرىنى تاشلاشقا چاقىرىق قىلغانلىقىغا دائىر ساختا بىر سىن تارقىتىلدى. ئەمما كۆپ ساندىكى كىشىلەر رەقەملىك ماسلاشتۇرۇش ئىزلىرىنى — مەسىلەن زېلېنسكىينىڭ يۈزىنىڭ بېشى بىلەن تولۇق ماسلاشمىغانلىقى ياكى تەلەپپۇزىنىڭ غەلىتە ئىكەنلىكىنى — توغرا ئېنىقلاپ چىقتى.

ئەمما بىر يىلدىن كېيىن، ئىيۇن ئېيىدا رۇسىيە تاراتقۇلىرى پىرېزىدېنت ۋلادىمىر پۇتىننىڭ ئوخشاش ئەمما تېخىمۇ ئىشەندۈرۈش كۈچى بار ساختا سىنىغا ئالداندى. دېكابىر ئېيىدا بولسا، سۈنئىي ئەقىل بىلەن ياسالغان ئۆزىنىڭ deepfake ىنى يىللىق ئاخبارات ئېلان قىلىش يىغىنى ئۆتكۈزۈۋاتقان رۇسىيە رەھبىرىنى ئۆزىنىڭ ساختا كۆرۈنۈشىگە گۇۋاھچى قىلىپ ھەيران قالدۇردى.

Associated Press نىڭ خەۋەر قىلىشىچە، 7-ئۆكتەبىردىن بۇيان 27 مىڭ 800 دىن ئارتۇق پەلەستىنلىك ئۆلتۈرۈلگەن، 67 مىڭدىن ئارتۇق پەلەستىنلىك يارىلانغان ئىسرائىلىيەنىڭ غەززەگە قاراتقان ئۇرۇشى سۈنئىي ئەقىلنىڭ ئالداش كۈچى ھەققىدىكى ئەندىشىلەرنى قاتتىق كۈچەيتىۋەتكەن.

ھازىر قورشاۋ ئاستىدىكى رايوندىن كەلگەن ھەقىقىي كۆرۈنۈشلەر ۋە گۇۋاھلىقلار مەۋجۇت، ئەمما بۇلار بەزىدە ساختا ئۇچۇرلار ۋە بۇرمىلانغان رېئاللىقلار بىلەن يانمۇيان تۇرىدۇ. ئۇرۇشنىڭ دەسلەپكى مەزگىللىرىدە، ئىجتىمائىي ئالاقىدە خارابىلىكلەر ئارىسىدا يىغلاۋاتقان بىر بوۋاقنىڭ سۈرىتىنى ئۆز ئىچىگە ئالغان بەزى سۈنئىي ئەقىل ئىشلەپچىقارغان كۆرۈنۈشلەر تارقالدى. شۇنداقلا، باشقا توقۇنۇش رايونلىرىدىن كەلگەن كونا فوتو سۈرەت ۋە سىنلار غەززەدىكى ئەڭ يېڭى ۋەزىيەتنىڭ پاكىتىدەك قىلىپ كۆرسىتىلدى.

ۋاقىت ئۆتكەنسېرى سۈنئىي ئەقىل تېخىمۇ تەرەققىي قىلدى ۋە Photoshop غا ئوخشاش كومپىيۇتېر ئانىماتسىيەسى ياكى تەھرىرلەش يۇمشاق دېتاللىرىنىڭ قىلغىنىدەك تەرەققىي قىلىشنى داۋاملاشتۇرماقتا. بۈگۈنكى كۈندە، ئاساسەن ھەممە ئادەم تېكىست كىرگۈزۈپ DALL-E ياكى Midjourney غا ئوخشاش ئاسانلا ئېرىشكىلى بولىدىغان سۈنئىي ئەقىل قوراللىرى بىلەن كۆرۈنۈش، سىن ياكى ئاۋاز ئىشلەپچىقىرالايدۇ ۋە ئىشەندۈرگۈچ ساختىلىق يارىتالايدۇ.

لېتارۇغا ئوخشىغان مۇتەخەسسىسلەر deepfake لارنىڭ مەۋجۇت بولۇشىنىڭ ئۆزىلا كىشىلەرنى ھەقىقىي خەۋەرلەر ياكى ئەسلى كۆرۈنۈشلەر ھەققىدە گۇمانغا سېلىشى مۇمكىنلىكىنى تەكىتلەپ مۇنداق دېمەكتە: «ھازىر ئەتراپنى مەلۇم ساختا ئۇچۇرلار بىلەن بىر دەمدىلا تولدۇرالايمىز، ئاندىن چىقىپ، ‹ھېلىقى ئۇرۇش جىنايەتلىرىنى ھۆججەتلەشتۈرگەن كۆرۈنۈشنى كۆردۈڭمۇ، ئۇمۇ باشقىلارغا ئوخشاش ساختا خەۋەر› دېيەلەيمىز.»

ئاددىي قىلىپ ئېيتقاندا، ئىشەندۈرگۈچ ساختا پاكىتلارنى ئىشلەپچىقارغىلى بولۇش رېئاللىقى ئەندىشىلىكتۇر. ئۇنىڭ ئۈستىگە، بۇ ئەھۋال كىشىلەرنىڭ ھەقىقىي پاكىتلارنىمۇ كۆرمەسكە سېلىشىغا، ھەقىقىي كۆرۈنۈش ۋە سىنلارغا بولغان ئىشەنچنى يوقىتىشىغا سەۋەب بولماقتا.

گېرمانىيەدىكى كۈھنې لوگىستىكا ئۇنىۋېرسىتېتىنىڭ مۇدىرى ۋە باشقۇرغۇچىسى ھەمدە رەقەملىك ئۆزگىرىش پىروفېسسورى ئاندرېئاس قاپلان، سۈنئىي ئەقىل ياردىمىدىكى مەزمۇنلارنىڭ — deepfake سىنلار ۋە شۇنىڭغا ئوخشىغان تېخنولوگىيەلەرنى ئۆز ئىچىگە ئالغان — بايانلارنى شەكىللەندۈرۈش، ئاممىۋى پىكىرگە تەسىر كۆرسىتىش ۋە مەلۇم كۆز قاراشلارنى كۈچەيتىشتە مۇھىم رول ئوينايدىغانلىقىدىن گۇمانلانمايدىغانلىقىنى تەكىتلىمەكتە.

بۇنىڭ دەل ئەكسىچە، بۇ تېخنولوگىيەنىڭ خاتا ئۇچۇرنىڭ تارقىلىشىغا بولغان تەسىرىنىڭ تېخىمۇ ئاجىز ئىكەنلىكىنى ئەسكەرتىپ مۇنداق دېمەكتە:

«باشقىچە قىلىپ ئېيتقاندا، سۈنئىي ئەقىل ئاساسلىقى خاتا ئۇچۇر ۋە ساختا ئۇچۇر ئىشلەپچىقىرىشنى ئاسانلاشتۇرىدۇ. ئەمما بۇ ئەھۋال، خاتا ئۇچۇرنىڭ تەلىپى ياكى تارقىلىشىغا ئوخشاش دەرىجىدە تەسىر كۆرسىتەلمەيدۇ. ئەسلى مەسىلە كىشىلەرنىڭ ئۇچۇر ئېلىش ئۈچۈن سۈنئىي ئەقىل قوراللىرىغا تايىنىشقا باشلىشىدۇر. بۇ، ئەمەلىيەتتە ۋىكىپېدىيەدىكى ئۇچۇرلارنى سوئالسىز قوبۇل قىلىشتىن ياكى بىر سىياسىي تەشۋىقات جەريانىدا كەلگەن ئاپتوماتىك تېلېفون چاقىرىقلىرىغا ئىشىنىش ياكى ئىشەنمەسلىكتىن ئانچە پەرقلەنمەيدۇ.»

قاپلان تەرتىپكە سالغۇچى ئورگانلارنىڭ ئادەتتە نۆۋەتتىكى ئەھۋالنىڭ كەينىدە قالغانلىقىنى قوبۇل قىلسىمۇ deepfake لار قوشۇلغان سۈنئىي ئەقىل بىلەن ئىشلەپچىقىرىلغان مېدىيا مەزمۇنلىرىنىڭ ناچار ئىشلىتىلىشىنى توسۇشقا قارىتىلغان تىرىشچانلىقلارنىڭ داۋاملىشىۋاتقانلىقىنى تەكىتلەپ مۇنداق دەيدۇ: «بۇنىڭغا ياۋروپا ئىتتىپاقى كومىتېتىنىڭ سۈنئىي ئەقىل ئۈچۈن تەييارلىغان لايىھەسى ناھايىتى ياخشى مىسال بولالايدۇ. بۇ لايىھەدە deepfake تېخنولوگىيەسى بىلەن ئىشلەپچىقىرىلغان بارلىق مەزمۇنلارغا بەلگە قويۇلۇشىنىڭ مەجبۇرىي بولۇشى تەلەپ قىلىنماقتا.»

قاپلاننىڭ ئوتتۇرىغا قويغىنى، 2023-يىلى 9-دېكابىردا ۋاقىتلىق كېلىشىمگە ئاساسەن چىقىرىلغان سۈنئىي ئەقىل قانۇنىدۇر.  تۇنجى قېتىم 2021-يىلى ئاپرېلدا تەكلىپ قىلىنغان بۇ تېكىست، ياۋروپا ئىتتىپاقى قانۇنىغا ئايلىنالىشى ئۈچۈن پارلامېنت ۋە كېڭەش تەرىپىدىن رەسمىي قوبۇل قىلىنىشى كېرەك. تەستىقلانغاندىن كېيىن، دۇنيادا سۈنئىي ئەقىلگە قارىتىلغان تۇنجى قائىدىلەر ئۈچۈن يېتەكچى بولىدۇ:

«شۇنىڭ بىلەن بىر ۋاقىتتا، ئامېرىكا قوشما ئىشتاتلىرىمۇ يېقىندا deepfake كە قارشى كۈرەش قىلىش توغرىسىدىكى قانۇنلارنى چىقىرىش ئۈچۈن تىرىشچانلىقلىرىنى كۈچەيتتى. بۇ تىرىشچانلىقلار نويابىردىكى پىرېزىدېنتلىق سايلىمىنىڭ تەسىرى بىلەن تېخىمۇ تېزلاشتى.»

كانادامۇ بەزى سۈنئىي ئەقىل سىستېمىلىرىنى تەرتىپكە سېلىشنى باشلايدىغان بىر قانۇن لايىھەسىنى تەكشۈرۈۋاتىدۇ. ئەنگلىيەدە بولسا 2023-يىلى ئۆكتەبىردە قوبۇل قىلىنغان تور بىخەتەرلىكى قانۇنى، يېڭى قانۇنلار ئارقىلىق بالىلارنى توردىكى زىيانلاردىن قاتتىق قوغداپ، دۆلەتنى «توردىكى دۇنيانىڭ ئەڭ بىخەتەر جايى» قىلىشنى نىشان قىلماقتا.

قاپلان ئوتتۇراھال بىر ئىجتىمائىي ئالاقە ئىشلەتكۈچىسى ئۈچۈن بىر نەرسىنىڭ ئىشەنچلىك ياكى ئەمەسلىكىنى بەلگىلەشنىڭ يولىنىڭ ئىستېمال قىلغان ماتېرىياللارغا دىققەت بىلەن يېقىنلىشىش ۋە ئۇنى سوئالسىز قوبۇل قىلىش ئورنىغا تەنقىدىي شەكىلدە كۆزدىن كەچۈرۈش ئىكەنلىكىنى تەكىتلەپ مۇنداق دەيدۇ:

«ئۆزىمىزنىڭ بىر تەرەپلىمە قاراشلىرىنى تونۇپ يېتىشمۇ ئىنتايىن مۇھىم، چۈنكى بىز دائىم ئۆزىمىزنىڭ دەسلەپكى تەسەۋۋۇرىمىزغا ماس كېلىدىغان ئۇچۇرلارغا ئىشىنىمىز.»

 سۈنئىي ئەقلىي ئىقتىدار، رەقەملەشتۈرۈش ۋە ئىجتىمائىي ئالاقە تورىنىڭ تەرەققىياتى ساھەلىرىدە تەتقىقات ئېلىپ بېرىۋاتقان بۇ پىروفېسسور يەنە مۇنداق دەيدۇ: «بۇ بىر تەرەپلىمە قاراشنى بىلگەندىن كېيىن ئۇچۇرلارنى تېخىمۇ ئوبيېكتىپ تەھلىل قىلغىلى بولىدۇ.»

ئۇ، سۆزىنىڭ ئاخىرىدا ئاگاھلاندۇرۇش بېرىپ مۇنداق دەيدۇ: « خۇلاسىلەپ ئېيتقاندا، خەۋەر قانچە سەزگۈر بولسا، ئۇنىڭ مەنبەسىدىن شۇنچە گۇمانلىنىشقا توغرا كېلىدۇ.»

مەنبەسى: TRT World

____________________________

مارىيون فېرناندو «‹TRT World› تېلېۋىزىيە قانىلى» دا ياردەمچى ئاخبارات خادىمى سۈپىتىدە ئىشلىمەكتە.

TRT Global'ni bir nazar bilan qarang. Fikrlaringizni bo'lishing!
Contact us