ජනක කෘත්රිම බුද්ධියේ ශීඝ්ර ව්යාප්තිය නව සහ ගැඹුරින් කණස්සලු සහගත ගෝලීය අර්බුදයක් ඇති කර තිබේ: ළමා රූප ලිංගිකව නිර්මාණය කරන ලද සැබෑ ලෙස පෙනෙන ව්යාජ deepfakes ඒවා බවට පරිවර්තනය කිරීම.යුනිසෙෆ් සහ හවුල්කාර සංවිධාන අනතුරු අඟවන්නේ මෙම නැගී එන ඩිජිටල් සූරාකෑමේ ආකාරය නීති සම්පාදනය, ළමා ආරක්ෂණ පද්ධති සහ පවුල්වලට හෝ අධ්යාපනඥයින්ට ප්රතිචාර දැක්වීමේ හැකියාව අභිබවා යන වේගයකින් ව්යාප්ත වෙමින් පවතින බවයි.
මෑත වසරවලදී, තාක්ෂණයෙන් යොදා ගන්නා ළමා ලිංගික අපයෝජන පරිමාණය වේගවත් ලෙස ඉහළ ගොස් ඇත. Childlight Global Child Safety ආයතනයේ ස්වාධීන දත්ත මගින් එක්සත් ජනපදයේ පමණක් වාර්තා වූ නඩු වල උග්ර වැඩිවීමක් පෙන්නුම් කරයි – 2023 දී 5,000 ට අඩු සංඛ්යාවක සිට 2024 දී 67,000 ට වඩා වැඩි සංඛ්යාවකි. මෙම වැඩිවීමේ සැලකිය යුතු කොටසක් deepfake තාක්ෂණයට ආරෝපණය කර ඇති අතර, එය AI භාවිතා කරමින් ඉතා යථාර්ථවාදී නමුත් ව්යාජ රූප හෝ වීඩියෝ නිර්මාණය කරයි. ඒ බොහෝ විට මුලින් අහිංසක ඡායාරූප “නිරුවත් කිරීම” මගිනි. රටවල් 11ක් පුරා පැතිරී ඇති UNICEF ආයතනයේ Interpol සහ ECPAT International සමඟ ඒකාබද්ධ විශ්ලේෂණයකින් ඇස්තමේන්තු කර ඇත්තේ පසුගිය වසර තුළ අවම වශයෙන් මිලියන 1.2 ක ළමුන්ගේ රූප පැහැදිලි ගැඹුරු ව්යාජ අන්තර්ගතයන් බවට විකෘති කර ඇති බවයි. සංඛ්යාලේඛනවලට අනුව, මෙය ලොව පුරා සෑම පන්ති කාමරයකට ආසන්න වශයෙන් එක් දරුවෙකු බලපෑමට ලක් වීමට සමාන වේ.
UNICEF අවධාරණය කරන්නේ සෘජුවම සම්බන්ධ නොකර ප්රසිද්ධියේ ලබා ගත හැකි රූපවලින් නිර්මාණය කළත්, හානිය තවමත් බරපතල බවයි. ගොතන ලද අන්තර්ගතය බාලවයස්කරුවන්ගේ ලිංගික නිරූපණයන් පතුරුවා අපයෝජනය සාමාන්යකරණය කරයි. ඩිජිටල් ලෙස ජනනය කරන ලද සහ සැබෑ වින්දිතයින් අතර වෙනස හඳුනාගත යුතු නීතිය ක්රියාත්මක කරන ආයතනවල කාර්යය සංකීර්ණ කරයි. තම සමානත්වය අනිසි ලෙස භාවිතා කර ඇති බව සොයා ගන්නා දරුවන්ට ඇති චිත්තවේගීය බලපෑම විනාශකාරී විය හැකිය. ලැජ්ජාව, බිය, කම්පනය සහ ඔවුන් වරක් ආරක්ෂිත යැයි සැලකූ ඩිජිටල් අවකාශයන් කෙරෙහි දිගුකාලීන අවිශ්වාසයක් පවා ඇති කරයි.
( මේ සඳහා යොදා ගන්නේ සමාජ ජාලයනහි බෙදා ගන්නා දරුවන්ගේ ජායාරූපය)
ළමුන්ට අමතරව, කාන්තාවන් සහ ගැහැණු ළමයින් අසමානුපාතික ඉලක්ක කිරීමකට මුහුණ දෙයි. එක්සත් රාජධානියේ ප්රධාන සමීක්ෂණයකින් වසර පහක් තුළ සත්යසේ පෙනෙන ව්යාජ deepfakes ආශ්රිත අපයෝජනවල විශ්මයජනක 1,780% ක වැඩිවීමක් ඉස්මතු විය. එම අධ්යයනයේදීම, ප්රතිචාර දැක්වූවන්ගෙන් සැලකිය යුතු සංඛ්යාවක් හඳුනන අයගේ හෝ ආගන්තුකයන්ගේ ලිංගික පැහැදිලි සත්යසේ පෙනෙන ව්යාජ deepfakes නිර්මාණය කර ඇති බව පිළිගත්තේය.
ඊටත් වඩා සැලකිලිමත් විය යුතු කරුණක් නම්, සැලකිය යුතු සුළුතරයක් එවැනි ගොතන ලද රූප – සමීප සහකරුවන්ගේ පවා – ජනනය කිරීම සහ බෙදා ගැනීමේ ක්රියාව සදාචාරාත්මකව හෝ නීත්යානුකූලව පිළිගත හැකි යැයි සැලකූ බවයි. මෙම ආකල්ප නිතර නිතර කාමුක දර්ශන පරිභෝජනය කරන සහ ස්ත්රී විරෝධී විශ්වාසයන් ප්රකාශ කරන තරුණයින් අතර බහුලව දක්නට ලැබුණි. මෙම දෝශ සහගත සම්මතයන් කැමැත්ත සහ පෞද්ගලිකත්වයේ සීමාවන් නිතිපතා උල්ලංඝනය කරන ඩිජිටල් පරිසරයක හැදී වැඩෙන තරුණයින්ට හදිසි තර්ජනයක් එල්ල කරන බව ක්රියාකාරීහු අනතුරු අඟවති.
ළමා වින්දිතයින් සඳහා මානසික ප්රතිවිපාක ගැඹුරු ය. යුනිසෙෆ් විශේෂඥයින්ට අනුව, ඔවුන් හා සමාන රූප වැරදි ලෙස භාවිතා කර ඇති බව සොයා ගැනීමෙන් බොහෝ දෙනෙක් දැඩි පීඩාවට පත්ව සිටිති. පාලනය නැතිවීම, කීර්ති නාමයට හානි වීම, බ්ලැක්මේල් කිරීම සහ තර්ජන පිළිබඳ හැඟීම් කම්පනය තවත් වැඩි කරයි.
ඩිජිටල් අන්තර්ගතය දින නියමයක් නොමැතිව සංසරණය විය හැකි බැවින්, වේදිකාවලින් ඒවා ඉවත් කිරීමෙන් පසුව පවා හානිය දිගටම පවතී. සමහර දරුවන් සම වයසේ මිතුරන්ගෙන් හෝ වැඩිහිටියන්ගෙන් විනිශ්චයට බියෙන් සමාජීය වශයෙන් ඉවත් වන අතර, තවත් සමහරු සබඳතා කෙරෙහි විශ්වාසය නැවත ගොඩනඟා ගැනීමට අරගල කරති.
අර්බුදය සංකීර්ණ වන්නේ “AI සාක්ෂරතාවය” නොමැතිකම නිසාය . AI ක්රියාත්මක වන ආකාරය, සත්යසේ පෙනෙන ඒවා නිපදවන ආකාරය සහ සූරාකෑම හඳුනා ගන්නේ හෝ වාර්තා කරන්නේ කෙසේද යන්න පිළිබඳ මූලික අවබෝධය නැති කමය. දෙමාපියන්ට, ගුරුවරුන්ට සහ දරුවන්ට බොහෝ විට AI මගින් ජනනය කරන ලද අපයෝජන හඳුනා ගැනීමට නොහැකි අතර උපකාර සඳහා සම්බන්ධ විය යුතු බලධාරීන් කව්රුන්දැයි නොදනී. මෙම දැනුම පරතරය දරුවන් අනාරක්ෂිත කරන අතර අඩු වාර්තාකරණයට දායක වේ.
UNICEF සහ අනෙකුත් UN ආයතන අවධාරණය කරන්නේ රජයන් සහ තාක්ෂණ සමාගම් වගකීම බාර ගත බවයි. බොහෝ ජාතික නීති තවමත් AI ජනනය කරන ලද ලිංගික රූප නීති විරෝධී ළමා අපයෝජන ද්රව්ය ලෙස වර්ගීකරණය නොකරන අතර, වැරදිකරුවන් සඳහා හිඩැස් නිර්මාණය කරයි. මේ අතර, තාක්ෂණික සමාගම් බොහෝ විට අවම ආරක්ෂණ ක්රම සහිත බලගතු උත්පාදක AI මෙවලම් නිකුත් කරන අතර මහජන අපකීර්තියෙන් පසුව පමණක් ආරක්ෂාව ශක්තිමත් කරයි. මෑත කාලීන එක් කැපී පෙනෙන සිද්ධියක් වන්නේ පැහැදිලි සත්යසේ පෙනෙන ව්යාජ ජනනය කරන බව සොයා ගන්නා ලද X (කලින් ට්විටර්) හි AI මෙවලම වන Grok ය.
එක්සත් ජාතීන්ගේ නිලධාරීන් තර්ක කරන්නේ ශක්තිමත් නියාමනය නවෝත්පාදනයට බාධා කළ යුතු නැති බවයි. ඒ වෙනුවට, ඔවුන් AI ජනනය කරන ලද අන්තර්ගතය, වේදිකා සඳහා අනිවාර්ය ආරක්ෂාව අනුව සැලසුම් අවශ්යතා සහ ඩිජිටල් ලෙස සක්රීය කරන ලද අපයෝජන සාමාන්යකරණයට මුහුණ දෙන පුළුල් සංස්කෘතික වෙනසක් ඇතුළත් යාවත්කාලීන ළමා ලිංගික අපයෝජන ද්රව්ය පිළිබඳ (CSAM (Child sexual abuse material) අර්ථ දැක්වීම් ඉල්ලා සිටී. තීරණාත්මක ක්රියාමාර්ගයක් නොමැතිව, සමස්ත පරම්පරාවක්ම අනන්යතාවය, පෞද්ගලිකත්වය සහ ගෞරවය උල්ලංඝනය කිරීම්වලට ගොදුරු විය හැකි බවට ඔවුහු අනතුරු අඟවති.