ഒഡീഷ: ആൺ സുഹൃത്തിനെ കെട്ടിയിട്ട ശേഷം 19 കാരിയെ കൂട്ട ബലാത്സംഗത്തിനിരയാക്കി. ഒഡീഷയിലെ പൂരി ബീച്ചിന് സമീപം ബലിഹാർചണ്ഡി ക്ഷേത്രത്തിനടുത്തായിരുന്നു സംഭവം. കേസിൽ മൂന്ന് പേരെ അറസ്റ്റ് ചെയ്തതായും ഒരാളെ കൂടി പിടികൂടാനുണ്ടെന്നും പൊലീസ് പറഞ്ഞു.
വിദ്യാർഥിനിയും ആണ്സുഹൃത്തും ക്ഷേത്രത്തിന് സമീപം ഇരിക്കുകയായിരുന്നു. ഇരുവരും സംസാരിക്കുന്ന ദൃശ്യം പ്രതികള് ആദ്യം ഫോണില് ചിത്രീകരിച്ചു. ഇത് ചോദ്യം ചെയ്തപ്പോല് ദൃശ്യം ഡീലീറ്റ് ചെയ്യാന് പണം നല്കണമെന്ന് ആവശ്യപ്പെടുകയായിരുന്നു. ഇത് നിരസരിച്ചതോടെയാണ് ആണ്സുഹൃത്തിനെ മരത്തില് കെട്ടിയിട്ട് പ്രതികള് പെണ്കുട്ടിയെ പീഡനത്തിന് ഇരയാക്കിയത്.
തിങ്കളാഴ്ച വൈകിട്ടോടെയാണ് ഇതുമായി ബന്ധപ്പെട്ട് പെണ്കുട്ടി പൊലീസ് സ്റ്റേഷനില് പരാതി നല്കിയത്. അറസ്റ്റിലായ മൂന്നുപേരും പ്രദേശവാസികളാണ്. പിടിയിലാകുമെന്നുറപ്പായതോടെ പ്രതികള് വീഡിയോകള് ഡിലീറ്റ് ചെയ്തതായും പൊലീസ് പറയുന്നുണ്ട്. അറസ്റ്റിലായ മൂന്നുപേരില് രണ്ടുപേരാണ് പെണ്കുട്ടിയെ ബലാത്സംഗം ചെയ്തതെന്ന് പൊലീസ് പറഞ്ഞു. ഒരാളെ ഇനിയും പിടികൂടാനുണ്ട്.
Join Our Whats App group
https://chat.whatsapp.com/DnZkuEEgZHP5lo60i9Xm4L
വിന്റേജ് സാരി ചിത്രങ്ങൾ പങ്കുവയ്ക്കുമ്പോൾ ഇക്കാര്യം ശ്രദ്ധിക്കണം
മുംബൈ: എഐ ആപ്പുകളുടെ വരവോടെ പുതിയ ട്രെന്റുകളുടെ പിന്നാലെയാണ് സോഷ്യൽ മീഡിയ. ഗൂഗിൾ നാനോയുടെ സഹായത്തോടെ വിന്റേത് എഐ എഡിറ്റുകളുടെ തരംഗമാണ് ഇപ്പോൾ നടക്കുന്നത്. വിന്റേജ് സാരി ചിത്രങ്ങൾ പങ്കുവക്കാൻ തിടുക്കം കൂട്ടുകയാണ് എല്ലാവരും.
അതേസമയം ഇത്തരം എഐ എഡിറ്റുകളിൽ ചില അപകടങ്ങൾ പതിയിരിപ്പുണ്ടെന്ന മുന്നറിയിപ്പും പുറത്തു വരുന്നുണ്ട്. സാധാരണ ചിത്രങ്ങളെ അപേക്ഷിച്ച് തിളങ്ങുന്ന പ്ലാസ്റ്റിക് പോലുള്ള ചര്മം, വലിപ്പമേറിയ കണ്ണുകള്, കാര്ട്ടൂണ് പോലുള്ള ത്രീഡി പോര്ട്രെയ്റ്റ് പ്രതിമ, റെട്രോ മോഡല് വിന്റേജ് സാരികളിലും വസ്ത്രങ്ങളിലുമുള്ള എഐ ചിത്രങ്ങള് എന്നിവയെല്ലാമാണ് ഗൂഗിള് നാനോ ബനാന ട്രെന്ഡ് കൂടുതല് പ്രിയങ്കരമാക്കുന്നത്.
പതിവ് പോലെ ഈ ചിത്രങ്ങള് എഐ സാങ്കേതിക വിദ്യയെ കുറിച്ചും വ്യക്തികളുടെ സ്വകാര്യതയെക്കുറിച്ചും നിരവധി ആശങ്കകളും ഉയര്ത്തുന്നുണ്ട്. ഒരാള് അപ്ലോഡ് ചെയ്യുന്ന ഫോട്ടോ പോലുള്ള കണ്ടന്റ് സംരക്ഷിക്കുമെന്ന് ഗൂഗിള്, ഓപ്പണ് എഐ പോലുള്ള ടെക് കമ്പനികള് വാഗ്ദാനം ചെയ്യുന്നുണ്ടെങ്കിലും, ഉള്ളടക്കം ദുരുപയോഗം ചെയ്യപ്പെടാനോ, സമ്മതമില്ലാതെ പരിഷ്കരിക്കാനോ, തെറ്റായ ആരോപണങ്ങള് ഉന്നയിക്കാനോ ഉള്ള സാധ്യത എത്രത്തോളം ഉണ്ടെന്ന് വ്യക്തമല്ല.
ഇത് നിര്ണയിക്കുന്നത് ഉപയോക്താവിന്റെ ഡിവൈസിന്റെ സ്വന്തം സുരക്ഷയും, ചിത്രങ്ങള് കാണാനാകുന്നവരുടെ ഉദ്ദേശ്യവുമാണ്. ചിത്രം ഏതെങ്കിലും തരത്തില് ദുരുപയോഗം ചെയ്യല്, അനുവാദമില്ലാതെ മാറ്റങ്ങള് വരുത്തല്, തെറ്റായ അവകാശ വാദം ഉന്നയിക്കല് എന്നീ പ്രശ്നങ്ങള് ഉയരാം.
എഐ പരസ്യങ്ങൾക്കോ മറ്റാവശ്യങ്ങൾക്കോ ഈ ചിത്രങ്ങൾ ഉപയോഗിക്കാനുള്ള സാധ്യതകളും ഏറെയാണ്. ഗൂഗിളിന്റെ നാനോ ബനാന ചിത്രങ്ങളില് ഒരു അദൃശ്യ ഡിജിറ്റല് വാട്ടര് മാര്ക്ക് അഥവാ 'സിന്ന്ത്ഐഡി' (SynthID) ഉണ്ടായിരിക്കും. എഐ ജനറേറ്റഡ് ചിത്രമാണെന്ന് തിരിച്ചറിയാന് ഉദ്ദേശിച്ചുള്ള ഈ മെറ്റാ ഡാറ്റ ടാഗുകളും വേറെയുണ്ട്.
ജെമിനി 2.5 ഫ്ലാഷ് ഇമേജ് ഉപയോഗിച്ച് സൃഷ്ടിച്ചതോ എഡിറ്റ് ചെയ്തതോ ആയ എല്ലാ ചിത്രങ്ങളിലും, എഐ ജനറേറ്റഡ് ആണെന്ന് വ്യക്തമായി തിരിച്ചറിയാന് ഒരു അദൃശ്യമായ SynthID ഡിജിറ്റല് വാട്ടര്മാര്ക്ക് ഉള്പ്പെടുന്നു. ഉപയോക്താക്കള്ക്ക് ആത്മവിശ്വാസത്തോടെ ഉപയോഗിക്കാനും സുതാര്യത നല്കുകയുമാണ് ലക്ഷ്യമെന്നാണ് എഐസ്റ്റുഡിയോ.ഗൂഗിള്.കോമില് വിശദീകരിക്കുന്നത്.
ഡീപ് ഫേക്കുകള്ക്ക് സാധ്യതയുണ്ടെങ്കിലും നഗ്നനേത്രങ്ങള്ക്ക് ദൃശ്യമല്ലെങ്കിലും SynthID ഡിജിറ്റല് വാട്ടര് മാര്ക്ക് ഉണ്ടെങ്കില് കണ്ടന്റ് എഐ ഉപയോഗിച്ച് നിര്മിച്ചതാണോയെന്ന് അനായാസം കണ്ടെത്താനാകും. എന്നിരുന്നാലും, ആ വാട്ടര് മാര്ക്കിനായുള്ള ഡിറ്റക്ഷന് ടൂള് ഇതുവരെ പൊതുജനങ്ങള്ക്ക് ലഭ്യമല്ല. അതിനാല് മിക്കയാളുകള്ക്കും അത് പരിശോധിക്കാന് കഴിയില്ലെന്ന് ടാറ്റ്ലര് ഏഷ്യ റിപ്പോര്ട്ട് പറയുന്നു.
വാട്ടര്മാര്ക്കിംഗ് ആദ്യം ഒരു മികച്ച പരിഹാരമായി തോന്നാമെങ്കിലും, എളുപ്പത്തില് നീക്കം ചെയ്യാനോ വ്യാജമായി മാറ്റിയെടുക്കാനോ കഴിയുമ്പോള് അതിന്റെ യഥാര്ത്ഥ ഉദ്ദേശ്യലക്ഷ്യം തന്നെ പരാജയപ്പെടാമെന്നാണ്, എഐ ഡിറ്റക്ഷന് സ്റ്റാര്ട്ടപ്പായ റിയാലിറ്റി ഡിഫന്ഡറിന്റെ സിഇഒ ബെന് കോള്മാനെ പറയുന്നത്.
ഏതൊരു എഐ ടൂളിലേയും പോലെ നിങ്ങള്ക്ക് ലഭിക്കുന്നത് നിങ്ങള് എവിടെ പോസ്റ്റ് ചെയ്യുന്നു എന്നത് പോലെയിരിക്കും അതിന്റെ സുരക്ഷിതത്വം. സെന്സിറ്റീവ് ഫോട്ടോകള്, വ്യക്തിപരമായ നഷ്ടങ്ങള് വരുത്തുന്ന തരത്തിലുള്ളതും സ്വകാര്യത വെളിപ്പെടുത്തുന്നതുമായ ചിത്രങ്ങള് കഴിയുന്നത്ര ഷെയര് ചെയ്യുന്നത് ഒഴിവാക്കുക.
അപ്ലോഡ് ചെയ്യും മുമ്പ് ലൊക്കേഷന് ടാഗുകള്, ഉപകരണ വിവരങ്ങള് തുടങ്ങിയ വിശദാംശങ്ങള് നീക്കം ചെയ്യുക. ഇത് ഉദ്ദേശിക്കാത്ത വിവരങ്ങള് ചോരുന്നത് തടയാന് സഹായിക്കും.
Post A Comment: