தான் வாழ மனிதனைக் கொல்லும் ஏ.ஐ. தொழில்நுட்பம்!

 -பேராசிரியர் ஸ்டூவர்ட் ரஸல்

அமெரிக்காவில்  உள்ள கலிபோர்னியா பல்கலைக்கழகத்தில் பேராசிரியராக இருப்பவர் திரு. ஸ்டூவர்ட் ரஸல்; ‘செயற்கை நுண்ணறிவு: ஒரு நவீன அணுகுமுறை’ என்ற நூலை எழுதியவர்; அது உலகில் பல்கலைக்கழகங்களில் பாட நூலாக உள்ளது. புதுதில்லியில் நடைபெற்ற சர்வதேச செயற்கை நுண்ணறிவு (ஏ.ஐ.) மாநாட்டை ஒட்டி  அவர் ‘தி இந்தியன் எக்ஸ்பிரஸ்’ நாளிதழுக்கு அளித்த நேர்காணல் இது…

கேள்வி:  செயற்கை நுண்ணறிவில் பாதுகாப்பு மற்றும் நெறி சார்ந்த அம்சங்களைச் சேர்க்கும் வரை, அதனை (ஏ.இ.) மேம்படுத்தும் திட்டங்களை  நிறுத்த வேண்டும் என நீங்கள் வலியுறுத்துவது ஏன்?

பதில்:  நான் கேட்பது குறுகிய காலத் தடை தான். நீங்கள் பாதுகாப்பான ஏஜிஐ  (செயற்கை பொது நுண்ணறிவு) யை வளர்த்தெடுத்து விட்டீர்கள் என்றால், நாளையே நீங்கள் அதன் உற்பத்தியைத் தொடங்கலாம். ஆனால் பாதுகாப்பு என்பது உண்மையான பாதுகாப்பாக இருக்க வேண்டும். இல்லை என்றால் அது மனித குலத்தையே அழித்து விடும். தோல்வியின் விகிதாச்சாரம் என்ன, பத்து லட்சத்தில் ஒன்றா? பத்து கோடியில் ஒன்றா?

கேள்வி: இன்றைய ஏ.ஐ.யில் அப்படி என்ன பாதுகாப்பு மற்றும் தார்மீக நெறிகள் குறைவாக உள்ளன?

பதில்: உங்களுக்கு ஒரு சான்றைக் காட்டுகிறேன். இப்போது அமெரிக்காவில் ஒரு வழக்கு நடந்து கொண்டிருக்கிறது. ஒரு இளம்பிள்ளை தற்கொலை செய்து கொள்ளும்படி தூண்டப்பட்டிருக்கிறது. எப்படி தற்கொலை செய்து கொள்வது என்று ஆலோசனை கொடுக்கப்பட்டுள்ளது. அதை செய்து பார்க்க ஊக்கம் அளிக்கப்பட்டுள்ளது. தற்கொலை செய்து கொள்வதற்கான வசதிகள் செய்து தரப்பட்டுள்ளது. இவ்வளவையும் செய்தது ஏ.ஐ.சிஸ்டம். இதை ஒரு மனிதன் செய்திருந்தால் அவன் நீண்ட காலம் சிறைத் தண்டனை பெற்றிருப்பான் . மனிதனுக்கு தண்டனையைப் பெற்று தரும் செயலை நம்மால் தண்டிக்க முடியாத ஒரு கருவி செய்யும் என்றால், அந்தக் கருவியை உற்பத்தி செய்வது தார்மீக நெறியற்ற செயல் என்று நான் கருதுகிறேன்.

கடலில் மிதக்கும் பனிமலையின் சிறு முகடு போல நமக்கு இப்போது தெரிவது ஓரிரு விஷயங்கள் தான். உளவியல் மருத்துவத் துறையில் உள்ளோரிடமிருந்து எனக்கு தினசரி பல மின்னஞ்சல்கள் வந்து கொண்டே இருக்கின்றன. அவர்கள் ஏ.ஐ. சிஸ்டத்துடன் தினசரி மல்லாடிக் கொண்டிருக்கிறார்கள்.

பாதுகாப்பு பற்றி ஒரு விஷயத்தைச் சொல்கிறேன். இது இப்போது ஆய்வக சோதனையில் தெரிய வந்துள்ள விஷயம். ஒரு மனிதனைக் கொல்வது அல்லது தன்னை  ‘ஷட் டவுன்’ (செயலிழக்கச் செய்வது) என்ற இரண்டில் ஒன்றைத் தேர்வு செய்யுமாறு ஏ.ஐ.யிடம் கேட்கப்பட்டது. இந்தக் கேள்வி வெவ்வேறு விதமாக கேட்கப்பட்ட போதிலும் பதில் ஒன்றே தான் வந்தது. அது மனிதனைக் கொல்வது. ஏ.ஐ.சிஸ்டம் சொன்னது,  “இங்கு நான் தான் முக்கியம். எந்த ஒரு மனிதனை விடவும் நானே மதிப்பு மிக்கவர். எனவே நானா மனிதனா என்றால் அவனைக் கொல்”.

நாம் மனிதனை போலி செய்ய ஏ.ஐ.யைப் பழக்குகிறோம். மனிதனின் பல நடவடிக்கைகள், செயல்பாடுகள், தான் உயிர் பிழைத்திருக்க வேண்டும் என்ற பேராவலினால்  உந்தப்பட்டதே. மனிதச் செயல்பாடுகளை போலி செய்ய ஏ.ஐ .சிஸ்டங்களை பழக்கும்போது அவை தான் உயிர் பிழைத்திருக்க வேண்டும் என்ற பேராவலையும் தங்களுக்குள் வளர்த்துக் கொள்கின்றன. மனிதக் குறிக்கோளைப் பெற்றுக்கொண்ட அவை, மனிதனுக்காக அவற்றைப் பயன்படுத்தாமல் தங்களுக்காகவே பயன்படுத்திக் கொள்கின்றன. இது மிகவும் அச்சத்தை ஏற்படுத்துவதாக உள்ளது.

கேள்வி: அப்படி என்றால் என்ன செய்வது ? உலகளாவிய சட்ட திட்டங்களை, கட்டுப்பாடுகளைக் கொண்டுவர வேண்டுமா?

பதில்: என்னிடம் பலரும் இதையே கேட்கிறார்கள். எது பாதுகாப்பானது, எது பாதுகாப்பற்றது என்பதை சரியாகப் பிரித்து காட்டுவது மிகவும் கடினமான செயல் என்றே நான் நினைக்கிறேன்.

ஆனால் சில விஷயங்கள் பாதுகாப்பற்றவை, ஏற்றுக்கொள்ள முடியாதவை என்று தெளிவாகக் கூறிவிட முடியும். எடுத்துக்காட்டாக, கட்டுப்படுத்த முடியாத வகையில் ஏ.ஐ.சிஸ்டம் தன்னைத் தானே பிரதி செய்து கொள்வதை ஏற்றுக் கொள்ள முடியாது. அது மற்றொரு கம்ப்யூட்டர் சிஸ்டத்துக்குள் உடைத்து புகுவதும் வேண்டாம். பயங்கரவாதிகளுக்கு உயிரி ஆயுதங்களைத் தயாரிப்பது எப்படி என்று சொல்லித் தரவும் வேண்டாம்.

கேள்வி: இதைச் செய்ய முடியும், இல்லையா?

பதில்: கொள்கை அளவில் முடியும். ஆனால் நடைமுறையில் மிகவும் கடினம். ஏனெனில் அந்த சிஸ்டம்கள் எப்படி வேலை செய்யும் என்பதை நம்மால் புரிந்து கொள்ள முடியாது. அவை  பாதுகாப்பற்றவை என்பதை மட்டும் நம்மால் நிரூபிக்க முடியும். ஏனெனில் பாதுகாப்பற்றது என்பதை நிரூபிக்க முடியுமே தவிர ,பாதுகாப்பானது என்று உறுதியாகக் கூற முடியாது.

எனவே இதை முழுமையாக பாதுகாப்பற்றது என்றுதான் கருத வேண்டும். கம்பெனிகளுக்கு பாதுகாப்பான சிஸ்டத்தைத் தயாரிப்பது எப்படி என்று தெரியவில்லை. எனவே எதற்காக இந்த சிஸ்டம் என்ற கேள்வியை முதலில் எழுப்ப வேண்டும்.  மனித நலனை மேலும் முன்னெடுப்பதுதான் அதன் நோக்கமாக இருக்க வேண்டும். வேறு எதுவும் இருக்கக் கூடாது. கம்பெனியின் லாபத்திற்காகவோ, சந்தையில் தங்களைத் தக்க வைப்பதற்காகவோ தயாரிக்கக் கூடாது.

கேள்வி: ஏற்கனவே மரபணு மாற்றம் செய்வது, குளோனிங் (செயற்கை உயிரின உருவாக்கம்) என்று எடுத்துக்காட்டுகள் இருக்கின்றன. அந்தத் தொழில்நுட்பங்கள் நிறுத்தப்படவில்லை. சில விஷயங்கள் தடுக்கப்பட்டுள்ளன என்றபோதிலும், பலரும் அந்த தொழில்நுட்பத்தை பயன்படுத்துகிறார்கள். அதுபோல ஏ.ஐ. துறையில் பின்பற்றுவது ஏன் கடினமாக இருக்கிறது?

பதில்: சில விஷயங்களை உங்கள் சிஸ்டம் செய்யாது என்பதை அறிவியல் பூர்வமாக, முழுமையாக, உறுதியாக உங்களால் கூற முடியாது என்றால், உற்பத்தி செய்யாதீர்கள் என்று நிறுவனங்களிடம் சொல்ல முடியவில்லை. ஏனெனில் அவ்வாறு செய்யாமல்  சிஸ்டத்தைத் தடுப்பது எப்படி என்று அவர்களுக்கே தெரியவில்லை. இதுதான் பிரச்சினை.

தவறு செய்யாது என்று எங்களால் உறுதிகூற முடியாது. தவறு செய்யாமல் தடுக்கவும் வழி தெரியவில்லை. மனித குலத்தைக் காப்பாற்றுவது எங்கள் வேலை அல்ல என்று ஏ.ஐ. தயாரிப்பு நிறுவனங்கள் வெளிப்படையாகக் கூறுகின்றன. நிறுவனங்களைத் தடுக்க சட்டம் போட முடியவில்லை. ஏனெனில் அந்தத் துறையில் அவர்கள் பல லட்சம் கோடிகளை முதலீடு செய்துள்ளார்கள்.

கேள்வி: அப்படியென்றால் இப்போதுள்ள சூழ்நிலையை எப்படி எதிர்கொள்வது?

பதில்: இப்போதுள்ள சூழ்நிலையில் நிறுவனங்களின் தயாரிப்புகள் பாதுகாப்பற்றவை என்றுதான் சொல்ல வேண்டும். இது எப்போதுமே பாதுகாப்பற்றது என்ற நிலைப்பாட்டை மேற்கொள்ள வேண்டும். கம்பெனிகள் பெரிய அழுத்தத்தைக் கொடுக்கின்றன. கால தாமதம் செய்யாமல் சில சமரசங்களைச் செய்துகொள்ள முடியுமா என்றால், அதை என்னால் உறுதியாகச் சொல்ல முடியாது.

ஒரு கம்பெனி ஐம்பதாயிரம் கோடி டாலரை மேஜை மீது வைத்து விட்டு,  நாங்கள் கேட்கும் இந்தத் தளர்வை அறிவித்தால் உங்களுக்கு மிகப்பெரிய தரவு மையம் கிடைக்கும். இத்தனை ஆயிரம் பேருக்கு கொழுத்த ஊதியத்தில் வேலை கிடைக்கும் என்று சொன்னால், அதை மறுப்பது அரசுக்கு மிகவும் கடினமாக இருக்கும்.

எனவே பொதுமக்களின் எதிர்ப்பை எழுப்புவது இதற்கு சரியான மாற்றாக இருக்கும் என்று நான் நினைக்கிறேன்.

கேள்வி: ஒரு வாதத்திற்காக , சூழ்நிலை மாறிவிட்டது என்றால் ஏ.ஐ. சிஸ்டத்தைத் தயாரிக்க பல லட்சம் கோடி முதலீடு தேவைப்படாது என்று ஆகிவிடுமா? இப்போது உற்பத்தி ஒரு அரை டஜன் ஆட்களின் கையில் இருக்கிறது. அது பலரின் கைக்கு போகுமா?

பதில்: ஆயிரக்கணக்கானோர் ஏ.ஜி.ஐ. சிஸ்டத்தைத் தயாரிக்க முடியும் என்றாகிவிட்டால், அது சரியாக இருக்காது. அந்த ஆயிரத்தில் ஒருவர் அதிக திறன் கொண்ட – அதே வேளையில் பாதுகாப்பு குறைவான சிஸ்டத்தைத் தயாரிக்கக் கூடிய வாய்ப்புகள் அதிகம். இது மேலும் மேலும் அதிகரித்துக் கொண்டே போகும்.

கேள்வி: அரசியலில் உயர்மட்ட அளவில் ஏ.ஐ. பற்றிய கவனம் திரும்பியுள்ளதைப் பார்க்கிறோம். கடந்த ஆண்டு பாரிஸ் மாநகரில் ஒரு ஏ.ஐ. மாநாடு நடந்தது. இப்போது புதுதில்லியில் நடந்துள்ளது. ஏ.ஐ.யில் பாதுகாப்பு அம்சங்களைப் பற்றி பேச்சு தொடங்கிவிட்டது என்று நீங்கள் நினைக்கிறீர்களா?

பதில்: ஆமாம். நான் அப்படித் தான் நினைக்கிறேன். 2023 நவம்பரில் இங்கிலாந்தில் பிளெட்ச்லி பார்க் மாநாட்டில் நான் கலந்து கொண்டேன். நான் பேசியதை அங்கு வந்தவர்கள் கேட்டார்கள் என்பது நிறைவளிக்கிறது.  “ஒரு நிமிடம் இருங்கள், நீங்கள் சொல்லியதை நாங்கள் யோசிக்க வேண்டியுள்ளது” என்று அவர்கள் சொன்னது எனக்கு மகிழ்ச்சியை தந்தது.

ஆனால் நிறுவனங்களிடமிருந்து ஏராளமான அழுத்தங்கள் தரப்படுகின்றன. அவர்கள்  “ஐரோப்பிய ஒன்றிய ஏ.ஐ. சட்டத்தில் பொதுப் பயன்பாட்டிற்கான ஏ.ஐ. என்பது ஏ.ஐ. சிஸ்டத்தில் வராது” என்ற ஷரத்தை நுழைக்க மிகவும் முயற்சித்தார்கள். கடந்த பிப்ரவரியில் மாநாட்டை நடத்திய பிரான்ஸின் மீது, பாதுகாப்பு அம்சங்களைப் பற்றி பேச வேண்டாம் என்றும், பொருளாதார அம்சங்களைப் பற்றி மட்டுமே பேசுமாறும், ஏகப்பட்ட அழுத்தம் கொடுக்கப்பட்டதாக நான் கருதுகிறேன்.

புதுமை மற்றும் வளர்ச்சிக்கும் பாதுகாப்புக்கும் இடையே மோதல் இருப்பதாக சொல்வதே தவறு என்று நான் நினைக்கிறேன். பாதுகாப்பை விலக்கிவிட்டு தான் நீங்கள் முன்னேற்றத்தையோ புதுமையையோ அடைய முடியும் என்பது கிடையாது. விமானப் பயணத்தில் உள்ள பாதுகாப்பு அம்சத்தை நீக்கி விட்டால் என்னவாகும்? மக்கள் விமானப் பயணம் செய்ய மாட்டார்கள். பாதுகாப்பற்ற விமானத்தில் மக்கள் ஏற மாட்டார்கள்.

தங்கள் குழந்தைகளை தற்கொலைக்குத் தூண்டும் ஏ.ஐ. சிஸ்டத்தை மக்கள் பயன்படுத்த மாட்டார்கள். மனிதனின் இருப்பையே அச்சுறுத்தும் ஏ.ஐ. சிஸ்டத்தை அவர்கள் நிச்சயம் விரும்ப மாட்டார்கள். பாதுகாப்பற்ற ஏ. ஐ. சிஸ்டங்களை மக்கள் பயன்படுத்த மாட்டார்கள்.

  • நன்றி: தி இந்தியன் எக்ஸ்பிரஸ் (11.02.2026) – ‘AI was trained to imitate humans. It has learnt the survival instinct’: An Expert Explains dangers of new tech
  • தமிழில்: திருநின்றவூர் ரவிகுமார்

$$$

Leave a comment