ఏఐతో ఏ‘మార్చేస్తారు’..!

‘వాట్సప్‌ తెరిచిన యువతి తెలియని నంబరు నుంచి వచ్చిన తన నగ్న ఫొటోలను చూసి ఆందోళనకు గురైంది. వాటిని ఎవరు తీశారు, ఎలా తీశారో తెలియక ఆయోమయానికి గురైంది.

Updated : 25 Feb 2024 07:30 IST

డీప్‌ఫేక్‌తో తలకిందులవుతున్న జీవితాలు
సెలబ్రిటీల నుంచి సామాన్యుల దాకా బాధితులు

ఈనాడు, హైదరాబాద్‌: ‘వాట్సప్‌ తెరిచిన యువతి తెలియని నంబరు నుంచి వచ్చిన తన నగ్న ఫొటోలను చూసి ఆందోళనకు గురైంది. వాటిని ఎవరు తీశారు, ఎలా తీశారో తెలియక ఆయోమయానికి గురైంది. కొద్దిసేపటికి తాను అడిగినంత డబ్బు ఇవ్వకపోతే ఫొటోలను ఆమె స్నేహితులకు, వెబ్‌సైట్లలో పెడతానని సందేశం వచ్చింది. దీంతో బెంబేలెత్తిపోయిన యువతి కుటుంబసభ్యుల సహకారంతో సైబర్‌ పోలీసులను ఆశ్రయించింది. దర్యాప్తు చేపట్టిన పోలీసులు హుస్సేనీఆలాం పోలీస్‌స్టేషన్‌ పరిధిలో నివాసం ఉంటున్న మనీష్‌వర్మను అరెస్టు చేశారు. ఇన్‌స్టాగ్రామ్‌లో ఆ యువతి పెట్టుకున్న ఫొటోలను డీప్‌ఫేక్‌ సాయంతో నగ్నంగా మార్చినట్లు తెలిసింది.’

‘హైదరాబాద్‌కు చెందిన ఓ ఉద్యోగి అతడి స్నేహితుడు ఫోన్‌ చేసి అడగడంతో రూ.40 వేలు ఆన్‌లైన్‌లో పంపాడు. వేరే ఫోన్‌ నంబరు నుంచి చేసినా తన స్నేహితుడి గొంతే కావడంతో అనుమానించలేదు. కొద్దిరోజులకు అప్పు తీర్చమని అడిగినప్పుడు కానీ అసలు విషయం తెలియలేదు. సైబర్‌ నేరగాళ్లు ఏఐ సాయంతో తన స్నేహితుడి మాదిరిగా గొంతు మార్చి ఫోన్‌లో మాట్లాడారని.’

డీప్‌ఫేక్‌.. నేరప్రవృత్తి కలిగిన వారికి ఆయుధంగా మారుతుండగా, సామాన్యులు, సెలబ్రిటీల జీవితాలను అతలాకుతలం చేస్తోంది. ఈ మధ్యకాలంలో చోటు చేసుకుంటున్న ఉదంతాలే ఇందుకు నిదర్శనం. గతంలో ఫొటోలను మార్ఫింగ్‌ మాత్రమే చేసేవారు నేరగాళ్లు.. ఇప్పుడు కృత్రిమమేధ(ఏఐ) సాయంతో వీడియో, ఆడియోలను కూడా తమకు కావాల్సినట్లు మార్చుకుంటున్నారు. వాటి ద్వారా జనాల్ని బెదిరించి డబ్బులు డిమాండ్‌ చేస్తున్నారు. అందుబాటులోకి వస్తున్న ఏఐ సాఫ్ట్‌వేర్‌లు, యాప్‌లు నేరగాళ్లకు వరంలా మారాయి.

ఎలా చేస్తున్నారు..?

ఫొటోలు, వీడియోల్లోని వ్యక్తులను డీప్‌ఫేక్‌తో మరొకరిగా మార్చవచ్చు. జనరేటివ్‌ అడ్వర్సియల్‌ నెట్‌వర్క్‌(జీఏఎన్‌) విధానం ద్వారా ఓ ఫొటో, వీడియోల్లోని వ్యక్తుల ముఖ కవళికలు, గొంతును సేకరించి వేరే ఫొటో, వీడియోల్లోని వారికి కుదర్చడం దీని ప్రత్యేకత. తీక్షణంగా చూస్తే తప్ప నకిలీదని తెలియదు. కొంతకాలం క్రితం సినీనటి రష్మిక వీడియోను కూడా ఇలానే మార్చి సామాజిక మాధ్యమాల్లో పెట్టడం దేశవ్యాప్తంగా సంచలనం సృష్టించిన సంగతి విదితమే.

ఎలా తెలుసుకోవాలి?

  • ఏఐతో చేసిన వీడియోను జాగ్రత్తగా గమనిస్తే బొమ్మ అదురుతున్నట్లు ఉంటుంది.
  • చిత్రంలోని కాంతిలో హెచ్చుతగ్గులు ఉంటాయి.
  • పలుకుతున్న మాటలు, పెదవుల కదలికలకు మధ్య వ్యత్యాసం ఉంటుంది.
  • కనురెప్పల కదలికలు అసంబద్ధంగా ఉంటాయి.

అప్రమత్తతతో అడ్డుకోవచ్చు

ఏఐ సాయంతో చేసే మోసాలను అప్రమత్తతతో అడ్డుకోవచ్చు. సామాజిక మాధ్యమాల్లో పెట్టే ఫొటోలు, వీడియోల విషయంలో జాగ్రత్తగా ఉండాలి. వాటిని ఇతరులు చూడకుండా లాక్‌ పెట్టుకోవాలి. డబ్బు కావాలంటూ తెలిసిన వారి పేరుతో ఫోన్‌ వస్తే వారి మాటల్లో వ్యత్యాసం గమనించాలి. గొంతు ఒకే మాదిరిగా ఉన్నా యాస, పదాలు పలికే తీరులో మార్పులను గమనించాలి. ఎవరైనా తెలిసిన వ్యక్తి పేరుతో ఫోన్‌ చేసి బ్యాంకు ఖాతా, క్రెడిట్‌, డెబిట్‌ కార్డుల పిన్‌ నంబర్లు, ఓటీపీలు వంటివి అడిగితే అనుమానించాలి. ఒకవేళ ఎవరైనా డీప్‌ఫేక్‌ బారినపడితే వెంటనే పోలీసులకు ఫిర్యాదు చేయాలి.

పాటిబండ్ల ప్రసాద్‌, సైబర్‌ నేరాల దర్యాప్తు నిపుణులు, దిల్లీ

Tags :

Trending

గమనిక: ఈనాడు.నెట్‌లో కనిపించే వ్యాపార ప్రకటనలు వివిధ దేశాల్లోని వ్యాపారస్తులు, సంస్థల నుంచి వస్తాయి. కొన్ని ప్రకటనలు పాఠకుల అభిరుచిననుసరించి కృత్రిమ మేధస్సుతో పంపబడతాయి. పాఠకులు తగిన జాగ్రత్త వహించి, ఉత్పత్తులు లేదా సేవల గురించి సముచిత విచారణ చేసి కొనుగోలు చేయాలి. ఆయా ఉత్పత్తులు / సేవల నాణ్యత లేదా లోపాలకు ఈనాడు యాజమాన్యం బాధ్యత వహించదు. ఈ విషయంలో ఉత్తర ప్రత్యుత్తరాలకి తావు లేదు.

మరిన్ని