ഡീപ് ഫെയ്ക് വീഡിയോകൾ ഉയർത്തുന്ന ഭീഷണി

ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിന്റെ സഹായത്തോടെ നിർമിക്കപ്പെടുന്ന ഡീപ് ഫെയ്ക് വീഡിയോകൾ വലിയ ഭീഷണി ഉയർത്തുന്ന നാളുകളാണിത് . വ്യാജ വീഡിയോ ആണെന്ന് പോലും സാങ്കേതികമായി മനസിലാക്കാൻ സാധിക്കാത്ത വിധത്തിൽ ദൃശ്യങ്ങളും ശബ്ദവും കൃത്രിമമായി നിർമിക്കപ്പെടുകയാണ് ഡീപ് ഫെയ്ക് വീഡിയോകളിൽ . ഒരു വ്യക്തിയുടെ വീഡിയോകളോ ഓഡിയോ റെക്കോർഡിങുകളോ സൃഷ്ടിക്കാനോ രൂപമാറ്റം വരുത്താനോ സാങ്കേതിക വിദ്യ ദുരുപയോഗം ചെയ്യുന്നത് വലിയ ഭീഷണിയായി മാറുന്ന സാഹചര്യമാണുള്ളത് . മറ്റ് വീഡിയോകളോ ചിത്രങ്ങളോ ഉപയോഗിച്ച് വേറെ ഒരാളുടേത് എന്ന് തോന്നിക്കുന്ന തരത്തിൽ ചിത്രങ്ങളും വീഡിയോകളും നിർമിക്കപ്പെടുകയാണ് ഡീപ് ഫേക്കിൽ .
പറയാത്ത കാര്യങ്ങൾ പറയുന്നതായിട്ടും ചെയ്യുന്നതായിട്ടുമൊക്കെ ഇത്തരത്തിൽ വിഡിയോകൾ നിർമിക്കാം. ഇൻസ്റ്റഗ്രാം ഉടമ (ഫെയ്സ്ബുക്കിന്റെയും) മാർക് സക്കർബർഗിന്റെ ഒരു വീഡിയോ 2019 ജൂണിൽ ഇത്തരത്തിൽ കണ്ടിരുന്നു . ഇൻസ്റ്റഗ്രാമിലെ പ്രസ്തുത വീഡിയോയിൽ മറ്റു പല കാര്യങ്ങൾക്കൊപ്പം, ‘കോടിക്കണക്കിനു പേരുടെ സ്വകാര്യവിവരങ്ങൾ കയ്യിലുള്ള ഞാൻ ഭാവിയെ നിയന്ത്രിക്കും’ എന്ന മട്ടിലാണു സക്കർബർഗ് സംസാരിച്ചത്. വിഡിയോയിൽ കാണുന്നത് സക്കർബർഗിനെയാണെങ്കിലും , പറയുന്നത് അദ്ദേഹത്തിന്റെ ശബ്ദത്തിലാണെങ്കിലും യഥാർത്ഥത്തിൽ സക്കർബർഗ് അങ്ങനെ ഒരു വീഡിയോ സന്ദേശം നൽകിയിട്ടില്ല എന്നതാണു വാസ്തവം.
മാനവരാശിയുടെ മുന്നോട്ടുള്ള കാലത്ത് ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് വെല്ലുവിളിയാകുമെന്നും അതിനായി നടത്തിയ ഗവേഷണങ്ങളിൽ പശ്ചാത്തപിക്കുന്നുവെന്നും പറഞ്ഞ് നിർമിതബുദ്ധിയുടെ തലതൊട്ടപ്പനെന്നറിയപ്പെടുന്ന ജഫ്രി ഹിന്റൺ ഗൂഗിൾ വിട്ടത് അതിലെ ദൂഷ്യ വശങ്ങൾ തിരിച്ചറിഞ്ഞാണ് . നിർമിത ബുദ്ധി വ്യാപകമായി ദുരുപയോഗം ചെയ്യപ്പെടുന്നതാണ് ദിവസവും കാണുന്നത് . സാങ്കേതിക വിദ്യയ്ക്ക് നല്ലവശവും ദൂഷ്യവശവുമുണ്ട് . എന്തിനെയും നല്ലതിനായി ഉപയോഗിച്ചാൽ മനുഷ്യന് നന്മയുണ്ടാകും. സ്വാർത്ഥമോഹികൾ എന്തിനെയും ദുരുപയോഗിക്കുന്നതാണ് ഇവിടെ പ്രശനം.
നിർമിതബുദ്ധിയുടെ ഭാഗമായ ഡീപ് ഫെയ്ക് ആപ്പിലൂടെ ഒരു വ്യക്തിയെ മറ്റൊരാളാക്കി രൂപാന്തരീകരണം നടത്തി ദൃശ്യമോ ശബ്ദസന്ദേശമോ സൃഷ്ടിച്ചെടുക്കുക ഇന്ന് പ്രയാസമുള്ള കാര്യമല്ല . തെലുങ്ക്-കന്നഡ നടി രശ്മിക മന്ദാനയുടേതായി കഴിഞ്ഞദിവസം സോഷ്യൽ മീഡിയയിൽ വൈറലായ വീഡിയോ ആണ് നിലവിൽ ഈ വെല്ലുവിളിയെ ശ്രദ്ധയിലേക്ക് കൊണ്ടുവന്നത് .കറുത്ത വസ്ത്രം ധരിച്ച ഒരു സ്ത്രീ ലിഫ്റ്റിലേക്ക് കയറുന്നതാണ് വീഡിയോ. ഇതിൽ ആ സ്ത്രീയുടെ മുഖത്തിന് പകരം രശ്മികയുടെ മുഖം മോർഫ് ചെയ്ത് വയ്ക്കുകയാണ് ചെയ്തിട്ടുള്ളത്. യഥാർത്ഥ വീഡിയോയിൽ ഉള്ളത് ബ്രിട്ടീഷ് ഇന്ത്യൻ യുവതിയായ സാറാ പട്ടേൽ ആണ്. ശരീരം പ്രദർശിപ്പിക്കുന്ന വേഷത്തിൽ രശ്മിക ലിഫ്റ്റിൽ കയറുന്ന ദൃശ്യം കണ്ടാൽ അത് കൃത്രിമമായി സൃഷ്ടിച്ചതാണെന്ന് തോന്നില്ല. അത്രയ്ക്കു പൂർണതയിലാണ് ഡീപ് ഫെയ്ക്കിൽ മാറ്റം വരുത്തിയിട്ടുള്ളത് . സാറ പട്ടേൽ എന്ന ബ്രിട്ടിഷ് ഇന്ത്യൻ ഇൻഫ്ലുവൻസർ ഒക്ടോബർ 9ന് ഇൻസ്റ്റഗ്രാമിൽ പോസ്റ്റ് ചെയ്ത വീഡിയോ ആണ് ഒറിജിനൽ. സാറയുടെ തലമാറ്റി രശ്മികയുടേതാക്കി മാറ്റി പ്രചരിപ്പിച്ചത്. വ്യാജ വീഡിയോ വേദനിപ്പിച്ചുവെന്നും ഭയപ്പെടുത്തിയെന്നുമാണ് രശ്മിക പറഞ്ഞത് .എന്തായാലും വീഡിയോ വ്യാജമാണെന്നു തെളിഞ്ഞു .
കേന്ദ്ര ഐടി സഹമന്ത്രിയും അമിതാഭ് ബച്ചനുമൊക്കെ ഈ സംഭവത്തിൽ രൂക്ഷമായി പ്രതികരിച്ചിട്ടുണ്ട് . “ഇന്റര്നെറ്റ് ഉപയോഗിക്കുന്നവരുടെ സുരക്ഷയും വിശ്വാസവും ഉറപ്പാക്കേണ്ടത് മോദി സര്ക്കാരിന്റെ ഉത്തരവാദിത്വമാണ്'' എന്നാണ് ഇതേക്കുറിച്ച് മന്ത്രി രാജീവ് ചന്ദ്രശേഖർ എക്സിൽ പ്രതികരിച്ചത് . വ്യാജപ്രചാരണങ്ങള് തടയാൻ സോഷ്യല് മീഡിയ പ്ലാറ്റ്ഫോമുകള്ക്കു കഴിയുന്നില്ലെങ്കില് ഇരയായ വ്യക്തിക്കു കോടതിയെ സമീപിക്കാം എന്നും അദ്ദേഹം പറഞ്ഞു. ഡീപ്ഫെയ്ക് ദൃശ്യങ്ങൾ ആരെങ്കിലും ശ്രദ്ധയിൽപ്പെടുത്തിയാൽ 36 മണിക്കൂറിനുള്ളിൽ നീക്കം ചെയ്യണമെന്നാണ് 2021ലെ ഐടി ചട്ടം അനുസരിച്ച് നിർദേശം. ഇതു പാലിച്ചില്ലെങ്കിൽ സമൂഹമാധ്യമ പ്ലാറ്റ്ഫോമുകൾ അനുഭവിച്ചുപോരുന്ന സേഫ് ഹാർബർ പരിരക്ഷ പൂർണമായും നഷ്ടപ്പെടുമെന്നു മന്ത്രി പറഞ്ഞു. രശ്മികയുടേതിനൊപ്പം ആലിയ ഭട്ട്, കിയാറ അദ്വാനി, കത്രിന കൈഫ് ദീപിക പദുക്കോൺ തുടങ്ങിയ ബോളിവുഡ് നടിമാരുടെ വ്യാജ വീഡിയോകളും എക്സില് പ്രചരിക്കുന്നുണ്ട് .
അശ്ലീല വീഡിയോകൾ മാത്രമല്ല ഡീപ് ഫെയ്ക്കിൽ സൃഷ്ടിക്കപ്പെടുന്നത് രാഷ്ട്രീയതലത്തിലും ഇത്തരം വീഡിയോകൾ സൃഷ്ടിക്കപ്പെടുന്നുണ്ട് . 2020ൽ ഡല്ഹി നിയമസഭാ തെരഞ്ഞെടുപ്പ് പ്രചാരണത്തിനിടെ ബിജെപി സംസ്ഥാന അധ്യക്ഷന് മനോജ് തിവാരി രണ്ട് വ്യത്യസ്ത ഭാഷകള് സംസാരിക്കുന്ന വീഡിയോകൾ പ്രചരിച്ചിരുന്നു . നേതാവിന് ഇല്ലാത്ത കഴിവ് ഉണ്ടെന്നു കാണിക്കുന്നവിധത്തിൽ പ്രചാരണത്തിന് ഉപയോഗിക്കുകയായിരുന്നു ഈ വീഡിയോകൾ . അമേരിക്കൻ പ്രസിഡന്റ് തെരഞ്ഞെടുപ്പിൽ ജോ ബൈഡൻ എതിരാളിയായിരുന്ന ഡോണൾഡ് ട്രംപിനെ പ്രശംസിക്കുന്ന വ്യാജ വീഡിയോ പുറത്തിറങ്ങിയിരുന്നു.
ഒരു വ്യക്തിയുടെ രൂപവും ഭാവവും ശബ്ദവും ഉപയോഗിച്ച് അയാൾ സംസാരിക്കുന്നതുപോലെയുള്ള ദൃശ്യങ്ങൾ വ്യാജമായി നിർമിച്ചു പ്രചരിപ്പിച്ചാൽ അയാളെ ഭീകരനോ രാജ്യദ്രോഹിയോ സ്ത്രീപീഡകനോ ഒക്കെ ആയി ചിത്രീകരിക്കാൻ ആർക്കും സാധിക്കും . അത്തരമൊരു ദൃശ്യം പ്രചരിക്കുമ്പോൾ അതിലുള്ളതു താനല്ലെന്നു തെളിയിക്കേണ്ടിവരുന്നത് ആ വ്യക്തിയെ സംബന്ധിച്ച് വളരെ കഷ്ടമാണ് . ഇത്തരം വ്യാജ വീഡിയോകൾക്കെതിരെ നടപടിയെടുക്കേണ്ട സമയം അതിക്രമിച്ചു കഴിഞ്ഞു എന്നാണ് ഈ സംഭവങ്ങൾ ചൂണ്ടിക്കാട്ടുന്നത്. ഇത്തരം വീഡിയോകൾ ഷെയർ ചെയ്യുന്ന അക്കൗണ്ടുകൾക്കെതിരെ ശക്തമായ നിയമ നടപടികൾ അധികൃതരുടെ ഭാഗത്ത് നിന്ന് ഉണ്ടാകേണ്ടിയിരിക്കുന്നു .