செயற்கை நுண்ணறிவு என்பது இன்று அதிகம் பேசப்படுகின்ற ஒரு விடயப்பரப்பாக காணப்படுகின்றது. செயற்கை நுண்ணறிவினை பயன்படுத்தி வேலைகளை இலகுபடுத்திக் கொள்வதற்காக பல்வேறு பரீட்சார்த்த முயற்சிகள் மேற்கொள்ளப்பட்டு வருகின்றன. எதிர்காலத்தில் சகல துறைகளிலும் இந்த AI இன் தாக்கம் இருக்கப் போகின்றது. எனவே, செயற்கை நுண்ணறிவு பல்வேறு அணுகூலங்களை ஏற்படுத்தும் என்பதோடு பல்வேறு பிரதிகூலங்களையும் ஏற்படுத்த வல்லது. ஏற்கனவே எனது கட்டுரைகளில் இது பற்றி தொட்டுக்காட்டியுள்ளேன். அவற்றோடு இந்த ஐந்து அபாயங்கள் தொடர்பிலும் அறிந்து கொள்ளுங்கள்!

*𝟎𝟏. தனியுரிமை அவதானங்கள் (Privacy Concerns)*

தரவு பகுப்பாய்வுக்கு AI இன் பயன்பாடு அதிகரித்து வருகிறது. கண்காணிப்பும் அதிகரித்து வருகிறது. இதனால், தனிநபர்களின் தனியுரிமை விடயத்தில் பல்வேறு அபாயங்கள் எழுந்துள்ளன. இப்போதும் கூட AI கணிப்புநெறி (Algorithm) தனிநபர்களின் தனிப்பட்ட தகவல்களைச் சேகரிக்கிறது, பகுப்பாய்வு செய்கிறது, சேமிக்கிறது. எனவே, இவற்றை யாருக்கும் எந்த தேவைக்கும் பயன்படுத்தலாம் என்ற ஒரு நிலை ஏற்பட்டிருக்கிறது. தனிநபர்களின் தனிப்பட்ட தரவுகள், தகவல்கள் மாத்திரம் இன்றி தேடல் (Search), விருப்பு (Like), பகிர்வு (Share) போன்ற இணைய வெளி செயல்பாடுகளும் கூட பகுப்பாய்வு செய்யப்படுகின்றன. இதன் முலம் ஒவ்வொருவரையும் பற்றிய டிஜிட்டல் அடையாளக் கோப்புகளை உருவாக்க முடியும். எனவே, தற்போதுள்ள நிலையை விட எதிர்வரும் காலங்களில் தனிநபர்களின் தனியுரிமை (Privacy) என்பது இன்னும் சிக்கலானதாக மாறக்கூடிய சாத்தியம் உள்ளது.

*𝟎𝟐. தொழில்நிலை மாற்றம் (Job Displacement)*

செயற்கை நுண்ணறிவின் வளர்ச்சி தொழில்துறையிலும் பல்வேறு வசதிகளை வழங்கி வருகிறது. எனவே பணியாளர்களுக்குப் பதிலாக செயற்கை நுண்ணறிவினை மாற்றிடாக பயன்படுத்துவதற்கான வாய்ப்புகள் அதிகமாகவே உள்ளன. வழக்கமான பணிகளை அல்லது சுழற்சி முறையில் மீண்டும் மீண்டும் செய்யப்படுகின்ற பணிகளை தானியங்கு முறையில் செய்விக்கலாம் என்று வரும்போது AI க்கே முன்னுரிமை வழங்கப்படுகிறது. இதனால் எதிர்காலத்தில் மனித வள பயன்பாடு குறையலாம். AI யின் பயன்பாடு அதிகரிக்கலாம். தொழில் இழப்பு என்பது தவிர்க்க முடியாத ஒன்றாக மாறும். 2020 க்கும் 2025 க்கும் இடையில் சுமார் 85 மில்லியன் தொழில் இழப்பு ஏற்படலாம் என்று ஒரு ஆங்கிலக் கட்டுரை குறிப்பிடுகிறது. அத்தோடு AI இந்தக் காலப்பகுதிக்குள் 97 மில்லியன் புதிய தொழில்களை உருவாக்கும் என்றும் அந்த கட்டுரையில் தெரிவிக்கப்பட்டுள்ளது. ஆனால், சட்ட ரீதியான காப்பு முறைகள் குறித்து தற்போது உரையாடல்கள் ஆரம்பித்துள்ளன. உதாரணமாக, ஒரு தொழில் நிறுவனத்தில் 70% மனித வளம் பயன்படுத்தப்படுமாயின் 30% செயற்கை நுண்ணறிவை பயன்படுத்தலாம் என்பது போன்ற விகிதாசார முறைகள் குறித்து கலந்துரையாடப்பட்டு வருகின்றன. ஆனால், இப்படியான விகிதாசார முறைகள் அமுலாக்கத்தில் எந்தளவு தூரம் சாத்தியமாகும் என்பது கேள்விக்குறியே.

*𝟎𝟑. ஆழ்போலி மற்றும் தவறான தகவல்கள் (Deepfake and Misinformation)*

செயற்கை நுண்ணறிவைப் பயன்படுத்தி உண்மையான வீடியோக்களின் தரத்துக்கு போலியான வீடியோக்களை தயாரிக்க முடியும். அதற்கான பல செயற்கை நுண்ணறிவுக் கருவிகள் (AI Powered Tools) உருவாக்கப்பட்டுள்ளன. யதார்த்தமான வீடியோக்களின் அளவுக்கு போலியான வீடியோக்கள் தயாரிக்கப்படும் தொழில்நுட்பத்தையே நாம் ஆழ்போலி (Deep Fake) என்று சொல்கிறோம். அதேபோல் செயற்கை நுண்ணறிவினைத் தவறான தகவல்களை உருவாக்கவும், உள்ளடக்கங்களை தவறாக திரிபுபடுத்தவும் (Manipulation) பயன்படுத்த முடியும். இப்படியானவை பிழையாகவும், தவறாகவும் மக்களை வழிநடத்தலாம். இப்போதும் கூட பல ஆழ்போலி வீடியோக்கள் YouTube இல் இருப்பதைக் காணலாம். 2030 ஆகும் போது YouTube தளத்தில் Deep Fake வீடியோக்கள் 30% த்தால் அதிகரிக்கலாம் என கூறப்படுகிறது. எதிர்காலத்தில் இதன் எண்ணிக்கை பலமடங்கு அதிகரிக்கலாம் என எதிர்வு கூறப்பட்டுள்ளது. 

*𝟎𝟒. தானியங்கு ஆயுதங்கள் (Autonomous Weapons)*

AI யின் வளர்ச்சியோடு தானியங்கு ஆயுதங்களின் வளர்ச்சியும் ஆபத்தும் அதிகரித்து வருகிறது. ஆயுத நெறிமுறைகள் (Ethics) தொடர்பிலும் பல்வேறு வாதப் பிரதிவாதங்கள் உலகளவில் உருவாகி வருகின்றன. சில திரைப்படங்களில் இதன் சாத்தியங்கள் குறித்த காட்சிகள் நம்மை பீதி கொள்ளச் செய்கின்றன. மனித தலையீடு இல்லாமல் தானியங்கு முறைகள் ஏற்படுத்தக் கூடிய அழிவுகள் அளவிட முடியாதவை. சைபர் போர்ச்செயல் (Cyber Warfare) என்பது இனி இன்னும் கடுமையாக பேசப்பட வேண்டிய ஒன்றாக மாறும். அதேபோல் இணைய கட்டமைப்புகளை சீர்குலைக்கும் வகையில் இணைய வழி தாக்குதல்கள் (Cyber Attacks) கூட AI மூலம் மேற்கொள்ளப்படலாம். எப்படியோ, செயற்கை நுண்ணறிவு இத்துறையையும் விட்டு வைக்காது என்பதே நிதர்சனம்.

*𝟎𝟓. பக்கச்சார்பு மற்றும் பாரபட்சம் (Bias and Discrimination)*

செயற்கை நுண்ணறிவு என்பது குறியாக்கம் (Coding) மூலம் வழங்கப்படுகின்ற ஆணைகளை (Command) வைத்து பயிற்றுவிக்கப்பட்ட (Trained) ஒரு இயந்திர ஒழுங்குமுறை (Machine System) ஆகும். எனவே, இங்கு வழங்கப்படுகின்ற ஆணைகள் பக்கச்சார்பற்ற விதமாகவும் பாரபட்சம் இல்லாத வகையிலும் வழங்கப்படுகின்ற போது அத்தகவல்களை வைத்தே அதன் செயல்பாடுகளும் அமையும். வழங்கப்படுகின்ற ஆணைகளின் தரவுகள், தகவல்கள் என்பன பக்கச் சார்புடையதாகவும் பாரபட்சம் மிக்கதாகவும் அமைந்தால் செயல்பாடும் அதற்கேற்பவே அமையும். எனவே, வழங்கப்படுகின்ற ஆணைகள் பக்கச்சார்பாகவும் பாரபட்சமுடையதாகவும் அமைகின்ற போது சமூக மட்டத்தில் பல்வேறு அபாயங்களை ஏற்படுத்திவிடும். இது தவிர, ChatGpt போன்ற தகவல்களை பகுப்பாய்வு செய்து வழங்குகின்ற தேடல் பொறிகளில் பயன்படுத்தப்படும் செயற்கை நுண்ணறிவு கணிப்புநெறி (AI Algorithm) பக்கச்சார்பின்றியும் பாரபட்சம் அற்ற வகையிலும் தகவல்களை வழங்கும் என உறுதியாகக் கூற முடியாது. இவை இணையத்தில் ஏற்கனவே இருக்கின்ற தகவல்கள், தரவுகளை பகுப்பாய்ந்து (Analyze), தூண்டி (Prompt) முடிவுகளை வழங்குமாயின் சில போது பாரபட்சங்கள் பக்க சார்புகள் வருவதற்கான சாத்தியங்கள் அதிகம். இதில் உள்ள சில உப தலைப்புக்கள் கூட AI மூலம் பெறப்பட்டவையே. அவற்றை நாம் சரிபார்த்துக் கொள்ளாதவிடத்து ஒரு பக்கப் பார்வையை அவை வழங்கிவிடும்.

இப்படியான அபாயங்களைத் தணிக்க, இத்துறையில் உள்ளவர்கள் வெளிப்படைத்தன்மை, நேர்மை, பொறுப்புக்கூறல் போன்ற வலுவான ஒழுங்குமுறைகளைப் பின்பற்ற வேண்டும். இவை, மென்பொருள் மேம்பாட்டாளர்கள் மற்றும் பயன்படுத்துபவர்கள் என சகலருக்கும் பொருந்தும். சட்ட ஏற்பாடுகளிலும் இது குறித்த விடயங்கள் உள்வாங்கப்பட வேண்டிய அவசியம் உள்ளது.

எது எப்படியோ இந்த ஐந்து அபாயங்களுக்கு மேலதிகமாக இன்னும் பல உள்ளன. நிதியியலில் (Financial) ஏற்படக்கூடிய பாதிப்புகள், சுகாதார பராமரிப்பு (Health Care) சார்ந்த பாதிப்புகள், குற்றச் செயல்கள் (Criminal Activities), சமூக ஊடகங்களில் ஏற்படும் பாதிப்புக்கள் (Social Manipulation), கண்காணிப்பு (Survillance), முகம் கண்டறிதல் (Face Detection), இணைய அச்சுறுத்தல்கள் (Cyber Threats) என AI யின் அபாயங்களை அடிக்கிக் கொண்டே போகலாம். அடுத்தடுத்த பதிவுகளில் எதிர்பாருங்கள்.

*இஸ்பஹான் சாப்தீன்*
ஊடக பயிற்றுவிப்பாளர்
2023 08 10

https://chat.whatsapp.com/HncLvsJuoDuBL1YXG987ir

கருத்துரையிடுக

Blogger இயக்குவது.