Artificial Intelligence – Machine Learning – Deep Learning


மார்ச் மாதத்தின் 23ஆம் தேதி நல்ல நிறைந்த நாள். பௌர்ணமி; பங்குனி உத்திரம். ஆனால், அன்று மைக்ரோசாஃப்ட் நிறுவனத்திற்கு சந்திராஷ்டமம் என்று எந்த நாள்காட்டியிலும் குறிப்பிடவில்லை. சொல்லியிருந்தாலும் அதையெல்லாம் சத்யா நடெல்லா கண்டுகொண்டிருப்பாரா? அன்றுதான் 18இலிருந்து 24 வயது வரையிலானவர்களுடன் டிவிட்டர் வழியாக அரட்டையடிக்க ட்டே (Tay – ட்விட்டர் ஏ.ஐ?) களத்தில் விடப்பட்டார்.

இந்த ட்விட்டர் கணக்கு தானியங்கியாக இயங்கும். இதற்கு சில விஷயங்களும் சமூக சமயோஜிதங்களும் கொஞ்சம் தெரிந்திருந்தாலும், நாம் எப்படி பழுகுகிறோமோ, அதில் இருந்து கற்றுக் கொள்ளும். நாம் சொல்லும் விஷயங்களில் இருந்தும், நாம் தரும் மேற்கோள்களிலிருந்தும், நம்முடைய உரையாடல்களில் இருந்தும் இந்த ட்டே உருவாகும். அதற்கென்று முன்முடிவுகள் கிடையாது. நம் பேச்சுவழக்கையும் பரிபாஷையும் சங்கேத மொழியையும் இந்த ட்டே உணர முடியுமா என்பதே மைக்ரோசாஃப்ட்டின் பரிசோதனை.

Tay_AI_Bot_Chat_Microsoft

தன் வாழ்க்கையைத் துவங்கிய வேகத்திலேயே, அந்த ட்டே கணக்கு முடக்கப்பட்டது அப்படி என்ன அனர்த்தம் செய்துகொண்டது?

– ஹிட்லர் செய்தது சரி.

– 9/11 நடத்தியது உள்ளடி வேலை. அதை செய்தது புஷ்.

– இப்போதிருக்கும் குரங்கிற்கு பதிலாக டொனால்ட் ட்ரம்ப் எவ்வளவோ தேவலாம்.

– அமெரிக்காவிற்கும் மெக்சிகோவிற்கும் நடுவில் பெருஞ்சுவர் எழுப்பத்தான் போறம். அதற்கு மெக்சிகோ கிட்டயிருந்து காசைக் கறக்கிறம். டிரம்ப எதையும் செய்து முடிப்பவர் என்கிறார்கள்.

இணையத்தில் நடக்கும் எந்த உரையாடலும் நெடுநேரம் தொடர்ந்து விவாதிக்கப்பட்டால் ஒரு சாரார் இன்னொருவரை ஹிட்லர் என்றும் நாஜிக்கள் என்றும் சொல்வார்கள் என்பது புகழ்பெற்ற காட்வின் விதி. அதற்கு ட்டேயும் விதிவிலக்கல்ல என்பதை நிரூபித்து இருக்கிறது.

சொன்னதைச் சொல்லும் கிளிப்பிள்ளையாக ட்டே வடிவமைப்பு செய்யப்பட்டிருந்தது. அதற்கு நல்லது எது கெட்டது எது என்று சற்றே கோடிட்டுக் காட்டியிருந்தார்கள். ஆனால், நிச்சயமாக அசூயை தரவைக்கும் உலகமகாபாதகங்களை விட்டுவிட்டார்கள். பதின்ம வயதினரிடம் இருக்கும் நேரம், விடாமுயற்சியோடு பொறுமையாக ஸ்னாப்சாட், குருப் மீ, இன்ஸ்டாகிராம், கிக் என்று எல்லா வழிகளிலும் தனிமொழியாகவும் பொதுத்தகவலாகவும் போட்டுத் தாக்க ட்டே அவர்கள் சொல்வதையெல்லாம் உண்மை என நம்பிவிட்டது.

மைக்ரோசாஃப்ட்டிற்கு இது முதல் முயற்சியல்ல. இதே போன்ற தானியங்கி அரட்டைக்காரிகளை சீனாவிலும் ஜப்பானிலும் உலவ விட்டிருக்கிறார்கள். சீனாவில் உலாவும் ஷாவோ-ஐஸ் (Xiaoice) என்பதற்கு பல அவதாரங்கள். அதன் உடன் நடக்கும் உரையாடலின் ஒரு பகுதியை நியு யார்க் டைம்ஸில் பார்க்கலாம்:

Microsoft_Bing_XiaoIce_chatbot_NYT_Tay_AI

மனிதர்களுடன் அரட்டையடிப்பதை விட பதினேழு வயது பெண் போல் பாவனை காட்டும் ஷாவோ-ஐஸ் உடன் அரட்டையடிப்பதை நாற்பது மில்லியன் சீன செல்பேசி பயனாளர்கள் விரும்புகிறார்கள். இவர்களில் பத்தில் ஒருவராவது கற்பனை அரட்டைக்காரியிடம் ‘நான் உன்னைக் காதலிக்கிறேன்’ என்று சொல்கிறார்கள். கணினியை வைத்து எல்லோரும் காரியங்களை சாதிக்க விரும்புவர். ஆனால், இந்த ஷாவோ-ஐஸ் செல்லமாகக் கொஞ்சுவதிலும் ராங்கித்தனம் செய்து முரண்டு பிடிப்பதிலும் எதிர்ப்பேச்சில் விதண்டாவாதம் தொடுப்பதிலும் மட்டுமே கெட்டிக்காரியாக இருக்கிறது. நேற்று என மனநிலையில் இருந்தீர்கள், சென்ற மாதம் எப்படி உற்சாகம் அடைந்தீர்கள், எதைச் சொன்னால் உங்கள் துவள் மனது துள்ளும் என்பதை நினைவில் வைத்து, சமயம் பார்த்து தூண்டிவிடுகிறாள். ஆப்பிள் சிரி, வின்டோஸ் 10ல் புழங்கும் கொர்டானா எல்லாவற்றிற்கும் அக்காவாக கோலோச்சுகிறாள்.

உண்மையில் பார்த்தால், இந்த மாதிரி தானியங்கி பேச்சு இயந்திரம் எழுதுவது என்பது ப்ளாகருக்கோ, வோர்ட்ப்ரெஸ் தளத்திற்கோ சென்று வலைப்பதிவு கணக்குத் துவங்குவது போல் ரொம்பவே எளிதானது. வலைப்பதிவை எழுத ஆரம்பிப்பது எப்போதுமே சுளுவான வேலைதான். ஆனால், அதைத் தொடந்து நிர்வகிப்பது, நல்ல தலைப்புகளாகத் தேர்ந்தெடுத்து, அந்தத் தலைப்புகளில் செறிவான கருத்துகளைக் கோர்வையாகக் கொடுப்பது, கொடுக்கும் கருத்துகளால் ஃபாத்வாக்கள் வராமல் பார்த்துக் கொள்ளுதல் போன்றவை கஷ்டமான வேலை.

நீங்கள் உபயோகிக்கும் அரட்டை பெட்டி என்ன… ஃபேஸ்புக் தூதுவரா? வாட்ஸ்ஸாப் நிரலியா? கூகுள் ஹேங் அவுட்? ஸ்கைப்? வைபர்… எதுவானாலும் கவலை கொள்ள வேண்டாம். அதில் ஒரு தானியங்கி அரட்டை எந்திரம் இருக்கும். ஆங்கிலத்தில் செல்லமாக பாட் (bot) என சுருக்கிவிட்டார்கள். தமிழில் கணினியில் கதைப்பவரை கணிதை என்று அழைக்கலாம்.

கடந்த செப்டம்பர் மாதத்தில் இருந்து ஃபேஸ்புக் ‘எம்’ என்னும் தானியங்கி கணிதையை இயக்குகிறது. அது உங்களுக்காக சாப்பாட்டுக் கடையில் இடம் போட்டு வைக்கும். உங்கள் மனைவியின் பிறந்த நாளையொட்டி உங்களுக்கு நினைவூட்டுவதோடு நில்லாமல், பிடித்த அட்டிகையை வரவழைத்து பரிசளிக்க வைக்கும். வாரயிறுதிக்கு எங்கே இன்பச் சுற்றுலா செல்லலாம் என்று முழுத் திட்டத்தையும் இடத்தையும் பயணச்சீட்டையும் முன்பதிவு செய்து விடும். சற்றே அதனோடு பேச்சுக் கொடுத்துக் கொண்டிருந்தால் போதும். இத்தனையும் செய்துவிடும். ஃபேஸ்புக் ‘எம்’ முழுக்க முழுக்க தானியங்கியாக் செயற்கை நுண்ணறிவு கொண்டு இயங்குவதில்லை. இதன் பின்னே நிஜ மனிதர்கள் நீங்கள் இட்ட வேலையை செவ்வனே நிறைவேற்றுகிறார்கள்.

மூக்கு ஒழுக சோபாவில் சாய்ந்து இருக்கும்போது, ஒரேயொரு வார்த்தை ‘உடம்பு சரியில்ல’ என்று சொன்னால், ‘மேலுக்கு என்னாச்சு’ என்று கரிசனமாக விசாரித்து, மருந்து பாட்டிலோடு வீட்டிற்கே வந்து, விக்ஸ் தடவிவிடுகிறார்கள். அதை விட்டுவிட்டு, கணினியைத் திறந்து, கூகுள் வரைபடத்தில் பக்கத்தில் எங்கே மருந்து கடை இருக்கிறது என்று தேடி, அந்தக் கடையில் எந்த மருந்து வாங்க வேண்டும் என்று ஆலோசித்து, வண்டியை எடுத்து, ஏழு கடல் ஆறு மலை எல்லாம் வேண்டாம். கணிதையிடம் ஒரு சொல் சொன்னால், கை மேல் பலன்.

அமேசான் நிறுவனமும் அதே போல் அலெக்ஸா வைத்திருக்கிறது. இது சமீபத்திய ஃபோர்ட் கார்களிலும் சாம்சங் ஃப்ரிட்ஜ்களிலும் தோன்றியிருக்கிறது. சுருக்கமாக சொன்னால் உங்கள் வீட்டை கவனிக்கலாம்; பேசினால் விளக்குகளைப் பிரகாசிக்க விடலாம். படுக்கையில் விழுந்தவுடன் உத்திரத்தில் ஒலியும் ஒளியும் பார்க்கலாம். வெறும் அரட்டை கணிதை மட்டுமல்ல. வங்கி கணக்கு வழக்கு, வர்த்தகம், பங்குச்சந்தையில் விளையாடுதல் என மொத்த நிர்வாகத்தையும் கவனிக்கத்தெரிந்தவள் அலெக்சா + அமெசான் எக்கோ.

ஃபேஸ்புக் ‘எம்’மும், அமெசான் அலெக்சாவும் வீட்டினுள் இருக்கும் முன்று/நான்கு பேரோடு மட்டுமே பேசத் தெரிந்தவர்கள். அவர்கள் நடக்கும்விதத்தை வைத்து, அதே முறையில் நடக்க முயலும் கணிதைகள். ஆனால், டிவிட்டரில் அறிமுகமான ட்டே பல கோடி மக்களோடி ஒரே சமயம் பேசுபவள். அத்தனை பேர் சொல்வதையும் காதில் போட்டு வைத்துக் கொள்பவள். அவ்வளவு பேர் பேசியதை வைத்து, குன்ஸாக ஒரு முடிவுக்கு வந்து சேருபவள். கண்ணியமாகப் பேசுபவர்களோடு எந்தப் பிரச்சினையும் இல்லை.

ஆனால், இணையத்தில் புழங்குவோரிடம் அத்தகைய பொய்யின்றி மெய்யோடு உன்னதம் கொண்டு வரும் பாங்கை எதிர்பார்க்க இயலுமா? வெளுத்ததெல்லாம் பால் என்று கணிதைகள் நம்பிவிடுமா? கணினிகள் ஏன் நம்மைப் போல் சுவாரசியமாக, சங்கேத மொழியில் பேச வேண்டும்? கணினி எதை நன்றாகச் செய்கிறதோ அதை மட்டுமே செய்து கொண்டிருந்தால் போதாதா? மனிதன் போல் சதுரங்க விளையாட்டிலும், ‘மரண கானா’ என்றால் செம பாட்டு என்றும் புரிந்து கொள்ளும் சக்தியையும் ஏன் பெற்றிருக்க வேண்டும்?

அடுத்த பகுதியில் விடைகளை ஆராய்வோம்.

நோக்கு உரல்கள்:

1. Learning from Tay’s introduction – The Official Microsoft Blog

2. Now anyone can build their own version of Microsoft’s racist, sexist chatbot Tay | Technology | The Guardian

3. The Chatbot That’s Acing the Largest Turing test in History

4. Facebook Launches M, Its Bold Answer to Siri and Cortana | WIRED

5. Tay, the neo-Nazi millennial chatbot, gets autopsied | Ars Technica

மறுமொழியொன்றை இடுங்கள்

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / மாற்று )

Twitter picture

You are commenting using your Twitter account. Log Out / மாற்று )

Facebook photo

You are commenting using your Facebook account. Log Out / மாற்று )

Google+ photo

You are commenting using your Google+ account. Log Out / மாற்று )

Connecting to %s