Lok sabha elections: అమ్మ మాట వినిపిస్తే, కలైంజర్ కళ్ల ముందు కనిపిస్తే..! ఎన్నికల ప్రచారంలో ఏఐ వింతలు

టెక్నాలజీతో సాధ్యం కానిదంటూ ఏదీ లేదు. లోక్‌సభ ఎన్నికల వేళ.. ఎప్పుడో దూరమైన ప్రియతమ నేతల మాటలు వినిపిస్తున్నాయి. ప్రచారంలో వారూ భాగమవుతున్నారు.  

Updated : 04 Apr 2024 09:30 IST

ఇంటర్నెట్‌డెస్క్‌: తమిళ ప్రజల ‘అమ్మ’ జయలలిత ఈ సార్వత్రిక ఎన్నికల్లో (Lok sabha elections) అన్నాడీఎంకే తరఫున ప్రచారం చేస్తేనో..! తన కుమారుడు ఎంకే స్టాలిన్ సీఎంగా సాధించిన ఘనతలను కలైంజర్‌ కరుణానిధి మనముందుకొచ్చి చెప్తేనో..!! అదెలా సాధ్యం.. ఆ ఇద్దరు రాజకీయ ఉద్దండులు అస్తమించి ఏళ్లు దాటుతుంది కదా అని ఆశ్చర్యపోతున్నారా..? అదంతా ఏఐ మాయే మరి..! ఈ సాంకేతికతతో అధికార, ప్రత్యర్థి పార్టీలు ప్రచారంలో దూకుడు పెంచుతుండటం ప్రాధాన్యం సంతరించుకుంది.

పాపులర్‌ డైలాగ్ వినిపించిన అమ్మ..

కొద్దిరోజుల క్రితం అన్నాడీఎంకే పార్టీ కృత్రిమ మేధ (AI) సాంకేతికతతో రూపొందించిన ఒక ఆడియో క్లిప్‌ను విడుదల చేసింది. అందులో అమ్మ మాట విని సామాన్యులు ఆశ్చర్యపోయారు. ఈ ఎన్నికల్లో పార్టీ ప్రధాన కార్యదర్శి ఎడప్పాడి పళనిస్వామికి మద్దతివ్వాలని ఆమె కోరారు. అలాగే డీఎంకే ప్రభుత్వంపై విమర్శలు గుప్పించారు. ‘‘మీ వల్లే ఇక్కడ ఉన్నా.. మీ కోసమే పనిచేస్తా’’ అంటూ తన పాపులర్ డైలాగ్‌ను వినిపించారు. మరోవైపు కరుణానిధి తన కుమారుడు, తమిళనాడు సీఎం ఎంకే స్టాలిన్‌పై ప్రశంసలు కురిపించారు. ఆ ఏఐ జనరేటెడ్ వీడియోలో ఎప్పటిలాగే తన ట్రేడ్‌మార్క్‌ కళ్లద్దాలను ధరించారు. ఈ వీడియోను చెన్నైకు చెందిన సంస్థ రూపొందించింది. జయ.. 2016లో కన్నుమూయగా, కరుణానిధి.. 2018లో మరణించారు. 

ఇలా పార్టీలోకి వచ్చి... అలా టికెట్‌ పట్టేసి

అయినా సరే, టెక్నాలజీతో ఇదంతా సుసాధ్యమైంది. అత్యంత ప్రజాదరణ గల ఈ నేతలు ఎన్నికల ప్రచారంలో ఉంటే ఓటర్ల దృష్టిని ఆకర్షించడం పార్టీలకు సులువవుతుంది. భారీ స్థాయిలో రోడ్‌షోలు, బహిరంగ సభలతో పోల్చుకుంటే ఖర్చు కూడా కలిసొస్తుందని సాంకేతిక నిపుణులు వెల్లడించారు. అలాగే హిందీ, ఇంగ్లీష్‌లో మాత్రమే మాట్లాడగలిగే వ్యక్తితో స్థానిక భాషలో మాట్లాడుతున్నట్టుగా వీడియోలు రూపొందించే వీలు కూడా ఉంటుంది. ఈ టెక్నాలజీ వల్ల లాభమెంతుందో.. దుర్వినియోగం చేస్తే నష్టమూ అంతే ఉంది మరి.

విమర్శలు కొత్త కాకపోయినా..

దివంగత నేతల విషయంలో పెద్దగా సమస్య రాకపోవచ్చేమో కానీ.. ఎన్నికల్లో పోటీ చేసే అభ్యర్థులకు సంబంధించి, అచ్చం తమ నేతవే అనిపించేలా వీడియోలు రూపొందించి, గొంతును అనుకరిస్తే మాత్రం ఓటర్లు గందరగోళానికి గురయ్యే ప్రమాదం ఉంది. దాంతో ఎన్నికల వేళ ఓటర్లు ఏది నిజమో తెలుసుకునే పరిస్థితి ఉండదు. అప్పటికే జరగాల్సిన నష్టం జరిగిపోతుంది. ఇటీవల సామాజిక మాధ్యమాల్లో వైరల్‌గా మారిన డీప్‌ఫేక్‌ (DeepFake) ఫొటోలు, వీడియోలు సినీతారలు, సెలబ్రిటీలను తీవ్ర కలవరపాటుకు గురిచేస్తున్న విషయం తెలిసిందే. ఈ ప్రమాదకర ట్రెండ్‌ను ఉద్దేశించి కేంద్రమంత్రి అశ్విని వైష్ణవ్ ఆందోళన వ్యక్తం చేశారు. ఇది ప్రజాస్వామ్యానికి, సంస్థలకు పెను ముప్పు అని వ్యాఖ్యానించారు.

ఎన్నికల్లో ప్రత్యర్థులను లక్ష్యంగా చేసుకొని విమర్శలు చేయడం రాజకీయాల్లో కొత్తేం కాదు. కానీ ఏఐ జనరేటెడ్ వీడియోలు, ఆడియోలు సులువుగా నమ్మే అవకాశం ఉంటుందని, ఇది ప్రజాస్వామ్యానికి ముప్పుగా పరిణమించొచ్చని నిపుణులు హెచ్చరిస్తున్నారు.

Tags :

Trending

గమనిక: ఈనాడు.నెట్‌లో కనిపించే వ్యాపార ప్రకటనలు వివిధ దేశాల్లోని వ్యాపారస్తులు, సంస్థల నుంచి వస్తాయి. కొన్ని ప్రకటనలు పాఠకుల అభిరుచిననుసరించి కృత్రిమ మేధస్సుతో పంపబడతాయి. పాఠకులు తగిన జాగ్రత్త వహించి, ఉత్పత్తులు లేదా సేవల గురించి సముచిత విచారణ చేసి కొనుగోలు చేయాలి. ఆయా ఉత్పత్తులు / సేవల నాణ్యత లేదా లోపాలకు ఈనాడు యాజమాన్యం బాధ్యత వహించదు. ఈ విషయంలో ఉత్తర ప్రత్యుత్తరాలకి తావు లేదు.

మరిన్ని