விற்பனைக்கு: போலி முகங்கள்
–Kashmir Hill and Jeremy White
போலி நபர்களை விற்கும் தொழில் நிறுவனங்கள் தற்போது உருவாகியுள்ளன. ‘தனித்துவமான, கவலையற்ற’ போலி நபரை 2.99 டாலருக்கோ, ஆயிரம் பேரை 1,000 டாலர்களுக்கோ வாங்கலாம். ஒரு வீடியோ விளையாட்டுக்காகவோ அல்லது உங்கள் நிறுவனத்தின் இணையதளம் பன்மைத்தன்மை கொண்டது என்று காட்டிக்கொள்வதற்காகவோ சில போலி நபர்கள் தேவை என்றால் அவர்களின் ஒளிப்படங்களை திஸ்பெர்ஸன்டஸ்நாட்எக்ஸிஸ்ட்.காம் (ThisPersonDoesNotExist.com) என்ற இணையதளத்தில் கட்டணமின்றிப் பெற்றுக்கொள்ளலாம். நீங்கள் விரும்பியபடி அவர்களின் தோற்றத்தை மாற்றியமைத்துக்கொள்ளலாம்; நீங்கள் விரும்பிய இனத்தவராக அவரை மாற்றிக்கொள்ளலாம். உங்களின் போலி நபரை அசைவுகொள்பவராக மாற்ற வேண்டுமென்றால் அதை ரோஸ்பட்.
ஏஐ (Rosebud.AI) என்ற நிறுவனம் செய்துதரும், அவர்களைப் பேசவும் வைக்கும்.கணினி மூலம் உருவாக்கப்பட்ட இந்த நபர்கள் இணைய உலகில் உலவ ஆரம்பித்திருக்கிறார்கள். குற்ற உள்நோக்கம் கொண்ட நிஜ மனிதர்களால் இவர்கள் பயன்படுத்தப்படுகிறார்கள். கவர்ச்சிகரமான முகத்தைப் பயன்படுத்தி நுண்ணறிவுத் துறைகளில் ஊடுருவ முயலும் உளவாளிகள், போலி தன்விவரக் குறிப்புகளுக்குப் பின்னால் ஒளிந்துகொள்ளும் வலதுசாரி பிரச்சாரகர்கள், நட்புணர்வுடன் கூடிய முகத்தைப் பொருத்திக்கொண்டு இணையத்தில் தங்கள் இலக்குகளைச் சீண்டுபவர்கள் போன்றோர்தான் இந்தப் போலி முகங்களைப் பயன்படுத்துபவர்கள்.
போலி முக உருவாக்கம்
பல்வேறுபட்ட போலி முகங்களை உருவாக்குவது எவ்வளவு எளிது என்பதைப் புரிந்துகொள்ளும் விதத்தில் எங்களுடைய ‘செயற்கை நுண்ணறிவு’ அமைப்பை உருவாக்கினோம். அந்த ‘செயற்கை நுண்ணறிவு’ அமைப்பு ஒவ்வொரு முகத்தையும் சிக்கலான கணித உருவமாகக் காண்கிறது. கண்களின் அளவையும் வடிவத்தையும் தீர்மானிப்பவை போன்ற வேறுபட்ட மதிப்புகளைத் தேர்ந்தெடுப்பதன் மூலம் ஒட்டுமொத்த படத்தையும் மாற்றியமைக்கலாம்.
இதுபோன்ற போலிப் படங்களை உருவாக்குவது சமீப காலமாகத்தான் சாத்தியமானது. இதற்கு ‘ஜெனரேட்டிவ் அட்வெர்ஸரியல் நெட்வொர்க்’ (generative adversarial network) எனும் புதிய வகை ‘செயற்கை நுண்ணறிவு’க்குத்தான் நன்றிகூற வேண்டும். அடிப்படையில், உண்மையான மக்களின் படங்கள் சிலவற்றை ஒரு கணினிக்குள் நீங்கள் இட வேண்டும். அது அவற்றை ஆய்வுசெய்து தானே நபர்களின் படங்களை உருவாக்கும்; அதன் இன்னொரு பகுதியோ இவற்றில் எவையெல்லாம் போலி என்பதைக் கண்டுபிடிக்க முயலும்.
யார் நிஜம், யார் போலிகள்?
இந்தத் தொழில்நுட்பம் அடைந்துவரும் முன்னேற்றத்தைப் பார்க்கும்போது போலி நபர்களின் தனிப் படங்களை மட்டுமல்ல, கும்பல் கும்பலான படங்களை நாம் காணும் நாள் வெகு தொலைவில் இல்லை என்றே தோன்றுகிறது. போலி நண்பர்களுடன் ஒரு கொண்டாட்ட நிகழ்வில் இருப்பதுபோன்ற படங்கள், தங்களின் போலி நாய்களுடன் போலி நபர்கள் உலவுவதுபோன்ற படங்கள், தங்கள் போலிக் குழந்தைகளைத் தூக்கிவைத்திருப்பதுபோன்ற படங்கள் இவையெல்லாம் வெள்ளமெனப் பெருகவிருக்கின்றன.
“2014-ல் இந்தத் தொழில்நுட்பம் முதலில் தோன்றியபோது சிம்ஸ் வீடியோ விளையாட்டுபோல் அது மோசமாகவே இருந்தது. எவ்வளவு வேகமாகத் தொழில்நுட்பம் மேம்பாடு அடையும் என்பதற்கான நினைவூட்டல் இது. போலியையும் உண்மையும் இனம் கண்டு பிரிப்பது போகப் போக மிகவும் கடினமாக ஆகிவிடும்” என்கிறார் போலிச் செய்திகளை ஆராய்பவரான கமிலி ஃப்ரான்ஸ்வா.
முகத்தின் முக்கியமான அம்சங்களை மிகவும் சிறப்பாக அடையாளம் காணும் வகையில் தொழில்நுட்பம் வளர்ந்ததுதான் போலி முக உருவாக்கத்தில் ஏற்பட்ட தொழில்நுட்ப முன்னேற்றங்களுக்குப் பகுதியளவு காரணம். உங்கள் முகத்தைப் பயன்படுத்தி உங்களின் திறன்பேசித் திரையைத் திறக்கலாம் அல்லது உங்களின் ஆயிரக்கணக்கான படங்களை அலசிப் பார்த்து அதை வைத்துக்கொண்டு உங்கள் குழந்தையின் படத்தைக் காட்டும்படி உங்கள் ஒளிப்பட மென்பொருளுக்கு நீங்கள் கட்டளை இடலாம். குற்ற நடவடிக்கைகளில் தொடர்புடையவர்கள் என்று சந்தேகிக்கப்படுபவர்களை அடையாளம் கண்டு கைதுசெய்வதற்கு முக அடையாளம் காட்டும் கணினி நிரல்கள் பயன்படுத்தப்படுகின்றன.
அடையாளமறிதல் தொழில்நுட்பம்
ஆனால், மற்ற ‘செயற்கை நுண்ணறிவு’ அமைப்புகளைப் போலவே ‘முக அடையாளமறிதல்’ அல்காரிதங்களும் முழுமையற்றவை. அவற்றைப் பயிற்றுவிக்கப் பயன்படுத்தப்பட்ட தரவுகளில் உள்ள பாரபட்சம் காரணமாக இந்த அமைப்புகளில் சில அந்த அளவுக்குச் சிறப்பானவையாக இருப்பதில்லை. எடுத்துக்காட்டாக, வெள்ளையரல்லாதோரை அடையாளம் காணும்போது இந்த அல்காரிதங்கள் அவ்வளவு சிறப்பாகச் செயல்படுவதில்லை.
மேலும், முக அடையாளமறிதல் அமைப்புகளின் கண்களாக இருக்கும் கேமராக்கள் கறுப்புத் தோல் உள்ளவர்களைப் படம்பிடிப்பதில் அவ்வளவு திறன்வாய்ந்தவையாக இருப்பதில்லை; இதற்குப் படச்சுருள் காலகட்டத்தின் ஆரம்ப நிலை நடைமுறைகள்தான் காரணம். அப்போது வெள்ளை நிற மக்களின் முகத்தை நன்றாகக் காட்டும் விதத்தில் புகைப்படங்கள் திறன்மேம்படுத்தப்பட்டன. இதன் பின்விளைவுகள் மிக மோசமானதாக இருக்கக் கூடும். ஜனவரியில், ராபர்ட் வில்லியம்ஸ் என்ற கறுப்பினத்தவர் அவர் செய்யாத குற்றத்துக்காக டெட்ராய்ட்டில் கைதுசெய்யப்பட்டார். இதற்கு, பிழையான முக அடையாளமறிதல் தொழில்நுட்பமே காரணம்.
‘செயற்கை நுண்ணறிவு’ நம் வாழ்க்கையை எளிதாக ஆக்கலாம், ஆனால் அதுவும் நம்மைப் போலவே தவறுகள் நிறைந்ததுவே; ஏனெனில், அதன் உருவாக்கத்தின் பின்னால் நாம்தானே இருக்கிறோம். ‘செயற்கை நுண்ணறிவு’ அமைப்புகள் எப்படி உருவாக்கப்பட வேண்டும் என்ற தெரிவை மனிதர்களே செய்கிறார்கள்; எப்படிப்பட்ட தரவுகளை அவற்றில் உள்ளீடு செய்ய வேண்டும் என்பதையும் அவர்களே முடிவுசெய்கிறார்கள். நமது மெய்நிகர் உதவியாளர்களுக்குக் கேட்பதற்குப் பயிற்சியளிப்பதற்கான குரல்களை நாமே தெரிவுசெய்கிறோம். இதனால், வெவ்வேறு வட்டார வழக்குகளைக் கொண்ட மக்களின் குரல்களை இந்த அமைப்புகளால் அடையாளம் காண முடியாமல் போய்விடுகிறது.
கணினிகள் நம்பத்தகுந்தவையா?
மனிதர்கள் தவறிழைப்பார்கள்தான்: இந்த அமைப்புகளில் உள்ள தவறுகளை நாம் காணத் தவறிவிடுகிறோம் அல்லது மூடிமறைத்துவிடுகிறோம், கணினிகள் மிகவும் தர்க்கபூர்வமானவை, விருப்புவெறுப்புக்கு அப்பாற்பட்டவை, எப்போதும் சரியாகத்தான் இருக்கும் என்று மிக விரைவில் நம்பிவிடுகிறோம். கணினிகளும் மனிதர்களும் சேர்ந்து முடிவெடுக்க வேண்டிய ஒரு சூழலில் – கைரேகைகளையோ மனித முகங்களையோ அடையாளம் காண்பதில் – கணினியால் குறிப்பிட்ட ஒரு முடிவை எடுக்கும்படி தூண்டப்படும்போது மனிதர்கள் தவறான அடையாளம் காணுதலைச் செய்கிறார்கள் என்பதை ஆய்வுகள் நிரூபித்திருக்கின்றன. காரின் டேஷ்போர்டு ஜிபிஎஸ் அமைப்புகளின் (வழியைக் காட்டும் சேவை) ஆரம்ப நாட்களில் ஓட்டுநர்கள் அந்த அமைப்புகளை மிதமிஞ்சிப் பின்பற்றி கார்களோடு ஏரிக்குள்ளோ பாறை உச்சியிலிருந்தோ விழுந்தார்கள் அல்லது மரங்களில் மோதினார்கள். இது பணிவா அல்லது அதீதப் பெருமிதமா? நாம் மனித அறிவின் மீது மிகக் குறைவான மதிப்பு வைத்திருக்கிறோமா – அல்லது நம்மை விட புத்திசாலியான விஷயங்களை உருவாக்கக் கூடிய அளவில் நாம் புத்திசாலியானவர்கள் என்ற எண்ணத்தில் அதை அளவுக்கு அதிகமாக எடைபோடுகிறோமா?
கூகுள், பிங் போன்றவற்றின் அல்காரிதங்கள் உலகத்தின் அறிவை நமக்காக வகைப்படுத்தித் தருகின்றன. ஃபேஸ்புக்கின் நியூஸ்ஃபீட் நமது சமூக வட்டங்களிலிருந்து சமீபத்திய பதிவுகள், தகவல்களை வடிகட்டித் தருகிறது; நமக்குக் காட்டுமளவுக்கு எவையெல்லாம் முக்கியமானவை என்று அது முடிவெடுக்கிறது. தானே ஓட்டிச்செல்லும் கார்களெல்லாம் வந்துவிட்டன. இவ்வாறாக நாம் நமது பாதுகாப்பை மென்பொருளின் கைகளில் (கண்களிலும்கூட) ஒப்படைத்துவிட்டோம். இந்த அமைப்புகள் மீது நாம் அளப்பரிய நம்பிக்கையை வைத்திருக்கிறோம். அவை நம்மைப் போலவே தவறிழைக்கக் கூடியவையாக இருக்கும் என்பதுதான் உண்மை.
மூலம்: Designed to Deceive: Do These People Look Real to You?
தமிழில்: ஆசை