Learn AI සිංහල arrow Inforgraphic arrow Post

කෘත්‍රිම බුද්ධියේ (AI) අඳුරු පැත්ත: එහි අහිතකර බලපෑම් අවබෝධ කර ගැනීම

janathb@icta.lk

janathb@icta.lk

Share Post On:

අද වන විට කෘත්‍රිම බුද්ධිය (Artificial Intelligence – AI) යනු ඉතා ජනප්‍රිය වචනයකි. සෞඛ්‍ය සේවාවේ සිට විනෝදාස්වාදය දක්වා සෑම දෙයක්ම විප්ලවීය වෙනසක් කරනු ඇතැයි එය පොරොන්දු වේ. සිරි (Siri) වැනි හඬ සහායකයින්ගේ සිට ස්වයංක්‍රීයව ධාවනය වන වාහන දක්වා, AI නවීන ජීවිතයේ කොටසක් බවට පත්ව ඇත. කෙසේ වෙතත්, මෙම උද්යෝගය සහ නවෝත්පාදනයන් යටින් අඳුරු පැත්තක් සැඟවී ඇත—එය පුද්ගලයන්ට, ප්‍රජාවන්ට සහ සමස්ත සමාජයටම බරපතල ප්‍රතිවිපාක ඇති කළ හැකි අභියෝග හා අවදානම් සමූහයකි. සාමාන්‍ය පුද්ගලයෙකුට, AI හි වැඩිවන පැවැත්ම වගකීමෙන් යුතුව තේරුම් ගැනීමට එහි අහිතකර පැති අවබෝධ කර ගැනීම අතිශයින් වැදගත් වේ. මෙම ලිපිය AI පිළිබඳ වඩාත් තීරණාත්මක ගැටළු කිහිපයක් ගවේෂණය කරයි. රැකියා අහිමිවීම (job displacement), පෞද්ගලිකත්වයට හානි කිරීම (privacy invasions), අගතිය සහ වෙනස්කම් කිරීම (bias and discrimination), සදාචාරාත්මක ගැටලු (ethical dilemmas) සහ අනිසි භාවිතයේ (misuse) හැකියාව වැනි කරුණු මෙහිදී පහසුවෙන් තේරුම් ගත හැකි අයුරින් පැහැදිලි කෙරේ.

රැකියා අහිමිවීම: යන්ත්‍ර පාලනයට ගැනීම

AI සම්බන්ධයෙන් ඇති වඩාත්ම ක්ෂණික සැලකිල්ලක් වන්නේ රැකියා කෙරෙහි එහි බලපෑමයි. වසර ගණනාවක් තිස්සේ තම කාර්යය මනාව ඉගෙන ගත් කර්මාන්තශාලා සේවකයෙකු ගැන සිතන්න, නමුත් ඔවුන්ගේ කාර්යයන් වේගවත් හා ලාභදායී යන්ත්‍රයකට භාර දීම නිසා ඔවුන්ට රැකියාව අහිමි වේ. AI-බලයෙන් ක්‍රියා කරන ස්වයංක්‍රීයකරණය (automation) දැනටමත් නිෂ්පාදන, සිල්ලර වෙළඳාම (retail), සහ ගිණුම්කරණය (accounting) සහ පාරිභෝගික සේවා (customer service) වැනි සුදු කරපටි (white-collar) අංශ පවා වෙනස් කරමින් සිටී. උදාහරණයක් ලෙස, ගබඩාවල (warehouses) දැන් භාණ්ඩ වර්ග කිරීමට සහ ඇසුරුම් කිරීමට රොබෝවරු භාවිතා කරන අතර, මෘදුකාංගවලට (software) දත්ත ඇතුළත් කිරීම හෝ මූලික නීතිමය පර්යේෂණ (legal research) වැනි කාර්යයන් හැසිරවිය හැකිය. McKinsey විසින් 2017 දී කරන ලද අධ්‍යයනයකින් ඇස්තමේන්තු කර ඇත්තේ 2030 වන විට වත්මන් රැකියාවලින් 30% ක් දක්වා ස්වයංක්‍රීයකරණය විය හැකි බවත්, එය ලොව පුරා මිලියන ගණනක් සේවකයින්ට බලපාන බවත්ය.

මෙම වෙනස වඩාත් තදින්ම බලපාන්නේ පුනරාවර්තන (repetitive) හෝ සාමාන්‍ය (routine) රැකියාවල නිරත වන අයටයි. උදාහරණයක් ලෙස, ට්‍රක් රථ රියදුරන්ට ස්වයංක්‍රීයව ධාවනය වන වාහන ඔවුන්ගේ රැකියාව අත්පත් කර ගත හැකි අනාගතයකට මුහුණ දීමට සිදු වේ. තාක්‍ෂණික හෝ AI නඩත්තු (AI maintenance) ක්ෂේත්‍රවල නව රැකියා ඇති විය හැකි වුවද, ඒවාට බොහෝ විට විස්ථාපනය වූ සේවකයින්ට නොමැති කුසලතා අවශ්‍ය වේ. නැවත පුහුණු කිරීම (retraining) කළ හැකි වුවද, එය සෑම විටම පහසුවෙන් ලබා ගත හැකි හෝ දැරිය හැකි (affordable) දෙයක් නොවේ, විශේෂයෙන් වැඩිහිටි සේවකයින්ට හෝ ග්‍රාමීය ප්‍රදේශවල සිටින අයට. එහි ප්‍රතිඵලය කුමක්ද? විරැකියාව, මූල්‍ය පීඩනය (financial stress) සහ අත්හැර දමා ඇති බවක් දැනීමයි. ඇතැම් කර්මාන්ත මත රඳා පවතින ප්‍රජාවන්ට – නිෂ්පාදන නගර වැනි – ආර්ථික පරිහානියකට මුහුණ දීමට සිදු විය හැකි අතර, එය දේශීය ව්‍යාපාර සහ පවුල් කෙරෙහි ද බලපෑම් ඇති කරයි. මෙය රැකියා අහිමි වීම ගැන පමණක් නොව; එය ජීවනෝපාය (livelihoods) සහ ස්ථාවරත්වය (stability) අහිමි වීම ගැන ය.

පෞද්ගලිකත්වය: ඔබේ දත්ත, ඔවුන්ගේ බලය

AI දත්ත මත පදනම් වේ—විශාල දත්ත ප්‍රමාණයක්. ඔබ අන්තර්ජාලයේ සෙවීමක් කරන සෑම අවස්ථාවකම, සමාජ මාධ්‍යවල පළ කිරීමක් කරන සෑම අවස්ථාවකම, හෝ ස්මාර්ට් උපාංගයක් (smart device) භාවිතා කරන සෑම අවස්ථාවකම, ඔබ ඔබේ පුරුදු, රුචිකත්වයන්, සහ ඔබේ ස්ථානය (location) පිළිබඳ තොරතුරු AI පද්ධතිවලට ලබා දෙයි. සමාගම් මෙම දත්ත AI මොඩල (models) පුහුණු කිරීමට භාවිතා කරන අතර, පසුව ඒවා ඔබේ හැසිරීම පුරෝකථනය කර ඔබට නිෂ්පාදන විකිණීමට හෝ ඔබේ තේරීම්වලට බලපෑම් කිරීමට යොදා ගනී. එය පහසු බවක් පෙනේද? නමුත් මෙහි ගැටලුවක් තිබේ: ඔබගේ පෞද්ගලික තොරතුරු කොපමණ ප්‍රමාණයක් රැස් කරන්නේද, නැතහොත් එය කවුරුන් භාවිතා කරන්නේද යන්න ඔබ බොහෝ විට නොදනී.

මුහුණු හඳුනාගැනීමේ තාක්ෂණය (facial recognition technology) සලකා බලන්න. එය ඔබේ දුරකථනය අගුළු ඇරීමේ සිට පොදු ස්ථානවල ආරක්ෂක කැමරා දක්වා සෑම දෙයකටම භාවිතා වේ. නමුත් එම දත්ත ගබඩා කළ විට, බෙදාගත් විට, හෝ අනවසරයෙන් ඇතුළු වූ විට කුමක් සිදුවේද? 2019 දී, ඉන්දියාවේ ආධාර් (Aadhaar) පද්ධතියේ (AI-බලයෙන් ක්‍රියා කරන ජෛවමිතික (biometrics) භාවිතා කරන) මිලියනයකට අධික ජනතාවකගේ පෞද්ගලික තොරතුරු අනාවරණය විය. එවැනි සිදුවීම් මගින් AI මගින් පෞද්ගලිකත්ව අවදානම් (privacy risks) වැඩි කළ හැකි ආකාරය පෙන්නුම් කරයි. රජයන්ට සහ සමාගම්වලට ඔබේ චලනයන්, මිලදී ගැනීම්, සහ ඔබේ දේශපාලන අදහස් පවා නිරීක්ෂණය කළ හැකි අතර, බොහෝ විට ඔබේ අවසරයකින් තොරව මෙය සිදු වේ. අඩු අධීක්ෂණයක් (oversight) ඇති රටවල, මෙම දත්ත පුරවැසියන් නිරීක්ෂණය කිරීමට හෝ විරෝධය මැඩපැවැත්වීමට භාවිතා කළ හැකිය. ප්‍රජාතන්ත්‍රවාදී රටවල පවා, පැහැදිලි නියාමන (regulations) නොමැතිකම නිසා ඔබේම තොරතුරු පාලනයකින් තොරව ඔබට සූරාකෑමට (exploitation) ලක් විය හැකිය.

අගතිය සහ වෙනස්කම් කිරීම: AI හි සැඟවුණු පක්ෂග්‍රාහීත්වය

AI යනු එය පුහුණු කර ඇති දත්ත තරම්ම සාධාරණය. මිනිසුන් කිසිසේත් පරිපූර්ණ නැත. AI පද්ධතිවලට ලබා දෙන දත්ත පවතින අගති (biases) පිළිබිඹු කරන්නේ නම් – උදාහරණයක් ලෙස, බඳවා ගැනීමේදී (hiring) හෝ පොලිස් ක්‍රියාකාරකම්වලදී ඇතැම් කණ්ඩායම්වලට අනුග්‍රහය දැක්වීම – එය වෙනස්කම් කිරීම (discrimination) ස්ථිර කළ හැකිය. උදාහරණයක් ලෙස, 2018 දී, Amazon සමාගම රැකියා සඳහා AI මෙවලමක් ඉවත් කළේ, එය පුරුෂයින්ට නැඹුරු වූ බඳවා ගැනීමේ රටා (male-dominated hiring patterns) මත පුහුණු කර තිබූ නිසා “කාන්තාවන්ගේ” වැනි වචන අඩංගු සාරාංශවලට (resumes) දඬුවම් කරන බව සොයා ගැනීමෙන් පසුවය. ඒ හා සමානව, මුහුණු හඳුනාගැනීමේ පද්ධති අඳුරු සමක් ඇති පුද්ගලයන් වැරදි ලෙස හඳුනා ගන්නා බව වැඩි වශයෙන් පෙන්නුම් කර ඇති අතර, සමහර අවස්ථාවලදී වැරදි අත්අඩංගුවට ගැනීම් (wrongful arrests) වලට තුඩු දී ඇත.

මෙම අගති හුදෙක් තාක්ෂණික දෝෂ (technical glitches) නොවේ; ඒවාට ජීවිත විනාශ කළ හැකිය. AI ඇල්ගොරිතමයක් (algorithm) පක්ෂග්‍රාහී දත්ත මත පදනම්ව ඔබව “අවදානම්” ලෙස සලකුණු කිරීම නිසා රැකියාවක් හෝ ණයක් ප්‍රතික්ෂේප වීමක් ගැන සිතන්න. නැතහොත් ඓතිහාසික අපරාධ දත්ත පද්ධතිමය අසමානතා (systemic inequities) පිළිබිඹු කරන නිසා සුළුතර අසල්වැසි ප්‍රදේශ (minority neighborhoods) ඉලක්ක කරන පුරෝකථන පොලිස් මෙවලම් (predictive policing tools) ගැන සිතන්න. මෙහි ඇති කාරණය නම්? AI හි තීරණ බොහෝ විට යන්ත්‍රයකින් එන නිසා ඒවා වෛෂයික සත්‍යයක් (objective truth) ලෙස දැනේ, එයට අභියෝග කිරීම වඩාත් අපහසු වේ. විනිවිදභාවය (transparency) හෝ විවිධ කණ්ඩායම් (diverse teams) මෙම පද්ධති ගොඩනැගීමකින් තොරව, AI සමාජ අසමානතා ගැඹුරු කළ හැකි අතර, රැකියා අවස්ථා වල සිට අපරාධ යුක්තිය (criminal justice) දක්වා සෑම දෙයකටම බලපායි.

සදාචාරාත්මක ගැටලු: වගකිව යුත්තේ කවුද?

AI පහසු පිළිතුරු නොමැති දුෂ්කර සදාචාරාත්මක ප්‍රශ්න මතු කරයි. ස්වයංක්‍රීය වාහන (autonomous vehicles) සලකා බලන්න: ස්වයංක්‍රීයව ධාවනය වන මෝටර් රථයකට පදිකයෙකුට (pedestrian) ගැටීම හෝ මඟ හැරීම සහ එහි මගීන්ට අවදානමක් ඇති කිරීම අතරින් තෝරා ගැනීමට සිදු වුවහොත්, නිවැරදි කුමක්දැයි තීරණය කරන්නේ කවුද? වැඩසටහන්කරුවන් (Programmers)? සමාගම්? මෙය තවමත් කිසිවෙකු සම්පූර්ණයෙන් සොයාගෙන නැත. නැතහොත් සෞඛ්‍ය සේවයේ AI සලකා බලන්න, එහිදී ඇල්ගොරිතම මගින් ආන්තික කණ්ඩායම් (marginalized groups) අවතක්සේරු කරන දත්ත මත පදනම්ව ඇතැම් රෝගීන්ට ප්‍රතිකාර සඳහා ප්‍රමුඛත්වය (prioritize) දිය හැකිය. මේවා හුදෙක් උපකල්පනීය තත්වයන් (hypothetical scenarios) නොවේ—AI වැඩි වැඩියෙන් තීරණ ගැනීමේ භූමිකාවන් භාර ගන්නා විට මේවා සැබෑ අභියෝග වේ.

තවත් සදාචාරාත්මක ගැටලුවක් වන්නේ වගවීම (accountability) යි. AI පද්ධතියක් වැරැද්දක් කළහොත් – රෝගියෙකු වැරදි ලෙස හඳුනා ගැනීම හෝ මූල්‍ය පාඩුවක් සිදු කිරීම වැනි – දොස් පැවරිය යුත්තේ කාටද? සංවර්ධකයාට, සමාගමට, හෝ AI ටමද? මිනිසුන් මෙන් නොව, AI හට හෘද සාක්ෂියක් (conscience) හෝ නීතිමය වගකීමක් (legal responsibility) නැත, එය වැරදි සිදු වූ විට අළු පැහැති ප්‍රදේශයක් (gray area) ඉතිරි කරයි. යුධ කටයුතුවලදී AI පිළිබඳ ප්‍රශ්නයක් ද තිබේ. ස්වයංක්‍රීය ඩ්‍රෝන යානා (Autonomous drones) හෝ ආයුධ (weapons) මිනිසුන්ට වඩා වේගයෙන් ජීවිතය හෝ මරණය පිළිබඳ තීරණ ගත හැකි නමුත්, ඒවාට සදාචාරාත්මක විනිශ්චයක් (moral judgment) නොමැත. යන්ත්‍රවලින් කවුරුන් ජීවත් වන්නේද නැතහොත් මිය යන්නේද යන්න තීරණය කිරීම විද්‍යා ප්‍රබන්ධ චිත්‍රපටයකින් (sci-fi movie) පැමිණි දෙයක් ලෙස දැනේ, නමුත් එය දැනටමත් ලොව පුරා හමුදා වැඩසටහන්වලදී පරීක්ෂා කරමින් සිටී.

අනිසි භාවිතය: වැරදි අතට පත් වූ AI

AI හි බලය ද්විත්ව කඩුවක් (double-edged sword) විය හැකිය. වැරදි අතට පත් වූ විට, එය හානියක් කිරීමට අවි ගබඩාවක් (weaponized) ලෙස භාවිතා කළ හැකිය. ඩීප්ෆේක් (Deepfakes)—මිනිසුන් නොකළ දේ පවසා හෝ කරන බව පෙන්වන AI-ජනනය කරන ලද වීඩියෝ—වැඩෙන ගැටලුවකි. 2023 දී, ප්‍රසිද්ධ චරිතයක ඩීප්ෆේක් වීඩියෝවක් වැරදි තොරතුරු පතුරුවා හැරීමෙන්, එය වැරදි බව ඔප්පු කිරීමට පෙර භීතියක් ඇති කළේය. එවැනි තාක්‍ෂණයකට වැරදි තොරතුරු (misinformation), වංචා (fraud), හෝ කප්පම් ගැනීම (blackmail) පවා ඉන්ධන සැපයිය හැකිය. වංචනිකයින් (Scammers) ද AI භාවිතා කර විශ්වාසදායක ෆිෂින් ඊමේල් (phishing emails) හෝ හඬ ක්ලෝන කිරීමේ වංචා (voice-cloning scams) නිර්මාණය කර, මිනිසුන් මුදල් හෝ සංවේදී තොරතුරු (sensitive information) බෙදා ගැනීමට පොළඹවයි.

රජයන්ට සහ සංවිධානවලට ද AI අනිසි ලෙස භාවිතා කළ හැකිය. ඒකාධිපති පාලන තන්ත්‍ර (Authoritarian regimes) AI-නැඹුරු නිරීක්ෂණය (surveillance) භාවිතා කර දේශද්‍රෝහීන් (dissidents) නිරීක්ෂණය කිරීමට හෝ සමාජ පාලනය (social control) ක්‍රියාත්මක කිරීමට යොදාගෙන ඇත, චීනයේ සමාජ ණය පද්ධතිය (social credit system) වැනි, එය පුරවැසියන්ගේ හැසිරීම නිරීක්ෂණය කර සේවා සඳහා ඔවුන්ගේ ප්‍රවේශයට බලපාන ලකුණු ලබා දෙයි. ප්‍රජාතන්ත්‍රවාදී රටවල පවා, AI ටාගට් කරන ලද වෙළඳ දැන්වීම් (targeted ads) හෝ ව්‍යාජ පුවත් (fake news) හරහා මැතිවරණ හැසිරවීමට (manipulate elections) භාවිතා කළ හැකිය, 2016 එක්සත් ජනපද මැතිවරණය ආශ්‍රිත මතභේදවලදී (controversies) දක්නට ලැබුණු පරිදි. AI මෙවලම්වල ප්‍රවේශ්‍යතාව (accessibility) යනු ප්‍රමාණවත් නිපුණතාවයක් ඇති ඕනෑම අයෙකුට ඒවා සූරාකෑමට හැකි බවයි, සයිබර් අපරාධකරුවන්ගේ (cybercriminals) සිට දේශපාලන ක්‍රියාකාරීන් (political operatives) දක්වා, නියාමනය කිරීම නිරන්තරයෙන් අභියෝගයක් බවට පත් කරයි.

මානසික සහ සමාජීය හානිය (The Mental and Social Toll)

AI රැකියා හෝ පෞද්ගලිකත්වයට පමණක් බලපාන්නේ නැත—එය අප සිතන සහ සම්බන්ධ වන ආකාරය වෙනස් කළ හැකිය. සමාජ මාධ්‍ය ෆීඩ් (social media feeds) වැනි AI-සකස් කළ අන්තර්ගතයට නිරන්තරයෙන් නිරාවරණය වීමෙන් ඔබව echo chambers (ඔබේ අදහස් පමණක් ශක්තිමත් වන පරිසර) තුළ සිර කළ හැකි අතර, ඔබේ විශ්වාසයන් ශක්තිමත් කර සමාජය ධ්‍රැවීකරණය (polarizing) කළ හැකිය. MIT විසින් 2020 දී කරන ලද අධ්‍යයනයක් වැනි අධ්‍යයනවලින් පෙනී යන්නේ AI ඇල්ගොරිතම බොහෝ විට බෙදී වෙන් කරන (divisive) හෝ නොමග යවන (misleading) අන්තර්ගතයන් වැඩි දියුණු කරන බවයි, මන්ද ඒවාට වැඩි ක්ලික් කිරීම් ලැබෙන බැවිනි. මෙය ආයතන කෙරෙහි ඇති විශ්වාසය ඛාදනය කර (erode trust) සමාජ බෙදීම් (social divides) ගැඹුරු කළ හැකිය.

මනෝවිද්‍යාත්මක පිරිවැයක් (psychological cost) ද පවතී. සංචලන යෙදුම් (navigation apps) හෝ සෞඛ්‍ය ට්‍රැකර් (health trackers) වැනි තීරණ සඳහා AI මත විශ්වාසය තැබීම අපට අඩු හැකියාවක් හෝ ස්වාධීනත්වයක් (independent) දැනීමට ඉඩ සලසයි. කාලයත් සමඟ, මෙම “ස්වයංක්‍රීයකරණ පක්ෂග්‍රාහීත්වය” (automation bias) විවේචනාත්මක චින්තන කුසලතා (critical thinking skills) දුර්වල කළ හැකිය. AI ගුරුවරුන් හෝ සහචරයින් සමඟ වැඩෙන ළමයින් සඳහා, මානසික සංවර්ධනයට බලපාන මානව අන්තර්ක්‍රියා (human interaction) අඩු වීමේ අවදානමක් ඇත. යන්ත්‍ර අපට වඩා දක්ෂ බව පෙනෙන ලෝකයක ජීවත් වීමේ කනස්සල්ල ද අප නොසලකා හැරිය යුතු නැත, එය සමහරුන්ට යල්පැනගිය (obsolete) හෝ බල රහිත (powerless) බවක් දැනීමට සලස්වයි.

පරිසර පිරිවැය: සැඟවුණු අඩිපාර (The Hidden Footprint)

AI ගොඩනැගීම සහ ක්‍රියාත්මක කිරීම පෘථිවියට ලාභදායී නොවේ. චැට්බොට් හෝ රූප ජනක යන්ත්‍ර (image generators) බලගන්වන විශාල AI මොඩල පුහුණු කිරීමට විශාල පරිගණක බලයක් (massive computing power) අවශ්‍ය වේ. දත්ත මධ්‍යස්ථාන (Data centers) විශාල විදුලි ප්‍රමාණයක් පරිභෝජනය කරයි, ඒවා බොහෝ විට පොසිල ඉන්ධන (fossil fuels) මගින් බලගන්වයි. 2019 අධ්‍යයනයකින් ඇස්තමේන්තු කර ඇත්තේ තනි AI මොඩලයක් පුහුණු කිරීමෙන් කාර් පහක් ඔවුන්ගේ ජීවිත කාලය පුරා විමෝචනය කරන තරම් කාබන් ප්‍රමාණයක් විමෝචනය විය හැකි බවයි. AI භාවිතය වර්ධනය වන විට, එහි පාරිසරික අඩිපාර ද වැඩි වන අතර, තිරසාරභාවය අතිශයින් වැදගත් වන අවස්ථාවක දේශගුණික විපර්යාස සඳහා දායක වේ. සාමාන්‍ය පුද්ගලයෙකුට, AI සමඟ සම්බන්ධය සෑම විටම පැහැදිලි නොවුනත්, මෙයින් අදහස් වන්නේ ඉහළ බලශක්ති පිරිවැයක් සහ උණුසුම් පෘථිවියකි.

ඉදිරි මග: AI හි අවදානම් තේරුම් ගැනීම

ඉතින්, මෙම අහිතකර පැති ගැන අපට කුමක් කළ හැකිද? දැනුවත්භාවය (Awareness) පළමු පියවරයි. AI යනු උදාසීන මෙවලමක් නොව මිනිස් තේරීම්වල ප්‍රතිඵලයක් බව තේරුම් ගැනීම අපට වඩා හොඳ දේ ඉල්ලා සිටීමට උපකාරී වේ. රජයන්ට ශක්තිමත් නියාමන (regulations) අවශ්‍ය වේ—දත්ත පෞද්ගලිකත්ව නීති (data privacy laws) හෝ අගති විගණන (bias audits) වැනි—සමාගම් වගකිව යුතු බවට වග බලා ගැනීමට. පුද්ගලයන්ට ද කුඩා පියවර ගත හැකිය: දත්ත බෙදාගැනීම සීමා කිරීම, සදාචාරාත්මක AI සංවර්ධනයට සහාය වීම, සහ AI භාවිතා කරන ආකාරය පිළිබඳ විනිවිදභාවය (transparency) සඳහා තල්ලු කිරීම. තාක්‍ෂණික විශේෂඥයින්ට පමණක් නොව, සෑම කෙනෙකුටම AI හි බලපෑම අවබෝධ කර ගැනීමට සහ සාධාරණ ප්‍රතිපත්ති (fair policies) වෙනුවෙන් පෙනී සිටීමට අධ්‍යාපනය ප්‍රධාන වේ.

රැකියා විස්ථාපනයට මුහුණ දෙන සේවකයින්ට සංක්‍රාන්තිය පහසු කිරීම සඳහා දැරිය හැකි නැවත පුහුණු කිරීමේ වැඩසටහන් (affordable retraining programs) හෝ විශ්වීය මූලික ආදායම් අත්හදා බැලීම් (universal basic income experiments) වැනි සහාය අවශ්‍ය වේ. පෞද්ගලිකත්වය සම්බන්ධයෙන්, සංකේතනය කළ පණිවිඩකරණය (encrypted messaging) වැනි මෙවලම් භාවිතා කිරීම හෝ අනවශ්‍ය දත්ත එකතු කිරීමෙන් ඉවත් වීම උපකාරී වේ. අගති ආමන්ත්‍රණය කිරීම යනු AI සංවර්ධන කණ්ඩායම් විවිධාංගීකරණය කිරීම (diversifying AI development teams) සහ පද්ධති යෙදවීමට පෙර ඒවා දැඩි ලෙස පරීක්ෂා කිරීමයි. සදාචාරාත්මකව, සෞඛ්‍ය සේවය හෝ යුධ කටයුතු වැනි සංවේදී ක්ෂේත්‍රවල AI හි කාර්යභාරය පිළිබඳව අපට විවෘත විවාද (open debates) අවශ්‍ය වේ. අනිසි භාවිතය මැඩපැවැත්වීම සඳහා, නීති තාක්‍ෂණයට අනුකූල විය යුතු අතර, ඇතැම් සන්දර්භයන් තුළ ඩීප්ෆේක් (deepfakes) වැනි හානිකර යෙදීම් තහනම් කළ යුතුය.

AI අතුරුදහන් වන්නේ නැත, එය අතුරුදහන් නොවිය යුතුය. රෝග සුව කිරීමේ සිට අධ්‍යාපනය වැඩිදියුණු කිරීම දක්වා විශාල ගැටළු විසඳීමට එයට හැකියාව ඇත. නමුත් එහි අහිතකර පැත්ත නොසලකා හැරීමෙන් අප එය පාලනය කරනවා වෙනුවට තාක්‍ෂණයෙන් පාලනය වන අනාගතයක අවදානමක් ඇති කරයි. දැනුවත්ව සිටීමෙන් සහ සම්බන්ධ වීමෙන්, අපට මානව වර්ගයාට හානියක් නොවන පරිදි AI හැඩගස්වා ගත හැකිය. මෙම ගමන පහසු නොවනු ඇත, නමුත් එය ආරම්භ වන්නේ අභියෝග අවබෝධ කර ගැනීමෙන් සහ වගවීම ඉල්ලා සිටීමෙනි.

Similar Posts