রাষ্ট্রের গণতান্ত্রিক ভিত্তি কি কৃত্রিম বুদ্ধিমত্তার চাপে?

একটি রাষ্ট্রের গণতান্ত্রিক কাঠামো সবচেয়ে স্পষ্টভাবে প্রকাশ পায় নির্বাচনের মাধ্যমে। নির্বাচন শুধু জনপ্রতিনিধি বাছাইয়ের প্রক্রিয়া নয়; এটি রাষ্ট্র ও নাগরিকের মধ্যকার আস্থার লিখিত দলিল। এই আস্থা ক্ষুণ্ন হলে কেবল সরকার নয়, পুরো রাষ্ট্রব্যবস্থাই প্রশ্নের মুখে পড়ে। একবিংশ শতাব্দীর এই সময়ে এসে সেই আস্থার ওপর নতুন করে চাপ সৃষ্টি করছে কৃত্রিম বুদ্ধিমত্তা বা আর্টিফিশিয়াল ইন্টেলিজেন্স (AI)।
প্রযুক্তির অগ্রগতি রাষ্ট্র পরিচালনায় নতুন গতি এনেছে—এ কথা অস্বীকার করার সুযোগ নেই। কিন্তু একই প্রযুক্তি যখন নির্বাচন প্রক্রিয়ার মতো সংবেদনশীল ক্ষেত্রে নিয়ন্ত্রণহীনভাবে প্রবেশ করে, তখন তা রাষ্ট্রীয় নিরাপত্তা, গণতন্ত্র ও সামাজিক স্থিতিশীলতার জন্য নতুন ঝুঁকি তৈরি করে। বাংলাদেশও এই বৈশ্বিক বাস্তবতার বাইরে নয়। প্রশ্ন এখন আর ‘AI ব্যবহার হবে কি না’—সে প্রশ্ন অনেক আগেই মীমাংসিত। প্রশ্ন হলো, নির্বাচনে কৃত্রিম বুদ্ধিমত্তা কীভাবে ব্যবহৃত হবে, কে তা নিয়ন্ত্রণ করবে এবং অপব্যবহার হলে রাষ্ট্র কীভাবে প্রতিকার নিশ্চিত করবে।
কৃত্রিম বুদ্ধিমত্তা মূলত তথ্য বিশ্লেষণ ও সিদ্ধান্ত সহায়ক প্রযুক্তি। রাষ্ট্রীয় ব্যবস্থাপনায় এর ব্যবহার ইতিবাচক হতে পারে—ভোটার তালিকা হালনাগাদ, নির্বাচন সংক্রান্ত তথ্য দ্রুত প্রচার, ফলাফল ব্যবস্থাপনায় নির্ভুলতা বৃদ্ধি ইত্যাদি ক্ষেত্রে কৃত্রিম বুদ্ধিমত্তা কার্যকর ভূমিকা রাখতে সক্ষম।
কিন্তু নির্বাচন কেবল প্রশাসনিক প্রক্রিয়া নয়; এটি রাজনৈতিক, সামাজিক ও মানসিক বাস্তবতার সঙ্গে গভীরভাবে যুক্ত। এখানেই কৃত্রিম বুদ্ধিমত্তার সীমারেখা স্পষ্ট করা জরুরি। কারণ কৃত্রিম বুদ্ধিমত্তা যখন জনমত বিশ্লেষণের নামে মানুষের আবেগ, ভয়, বিশ্বাস ও দুর্বলতাকে লক্ষ্য করে কাজ করে, তখন তা গণতান্ত্রিক ন্যায্যতার প্রশ্ন তোলে।
বাংলাদেশের মতো দেশে, যেখানে ডিজিটাল প্ল্যাটফর্মে তথ্যের বিস্তার দ্রুত হলেও তথ্য যাচাইয়ের সংস্কৃতি এখনো দুর্বল, সেখানে এই ঝুঁকি আরও গভীর।
সাম্প্রতিক বছরগুলোয় সামাজিক যোগাযোগমাধ্যমে বিভিন্ন রাজনৈতিক বক্তব্য, ভিডিও ও অডিও ছড়িয়ে পড়ার পর সেগুলোর সত্যতা নিয়ে প্রশ্ন উঠেছে। বিশেষজ্ঞদের বিশ্লেষণে দেখা গেছে, এর কিছু অংশ কৃত্রিমভাবে সম্পাদিত বা কৃত্রিম বুদ্ধিমত্তা নির্ভর প্রযুক্তি দিয়ে তৈরি। ডিপফেক প্রযুক্তির মাধ্যমে এমন ভিডিও তৈরি করা সম্ভব, যেখানে কোনো ব্যক্তি এমন কথা বলছেন বা করছেন বলে মনে হয়, যা বাস্তবে কখনো ঘটেনি। নির্বাচনের সময় এ ধরনের কনটেন্ট রাষ্ট্রের জন্য বিশেষভাবে উদ্বেগজনক। কারণ নির্বাচনকালে একটি ভুয়া ভিডিও বা অডিও শুধু কোনো ব্যক্তির ভাবমূর্তি ক্ষতিগ্রস্ত করে না; এটি নাগরিকদের তথ্যের ওপর আস্থা নষ্ট করে। যখন মানুষ নিশ্চিত হতে পারে না—সে যা দেখছে বা শুনছে তা সত্য কি না—তখন গণতান্ত্রিক সিদ্ধান্ত গ্রহণ দুর্বল হয়ে পড়ে। রাষ্ট্রের দৃষ্টিতে এটি একটি গুরুতর সংকেত।
অ্যালগরিদম নির্ভর প্রচারণা ও সমান সুযোগের প্রশ্ন
গণতন্ত্রের একটি মৌলিক শর্ত হলো সমান সুযোগ। প্রতিটি রাজনৈতিক পক্ষ ও প্রতিটি ভোটার যেন একই বাস্তবতার ভেতর থেকে সিদ্ধান্ত নিতে পারে—এটাই নির্বাচনের ন্যায্যতার ভিত্তি।
কিন্তু কৃত্রিম বুদ্ধিমত্তা নির্ভর ডেটা বিশ্লেষণ ও টার্গেটেড কনটেন্ট এই ভিত্তিকে নীরবে চ্যালেঞ্জ করছে। ডিজিটাল প্ল্যাটফর্মে সংগৃহীত তথ্য বিশ্লেষণ করে নির্দিষ্ট বয়স, এলাকা, পেশা বা মানসিক প্রবণতা অনুযায়ী আলাদা আলাদা বার্তা পৌঁছে দেওয়া সম্ভব হচ্ছে।
ফলে একজন ভোটার যে রাজনৈতিক বার্তা দেখছেন, অন্য একজন তা দেখছেন না। একই নির্বাচন, কিন্তু ভিন্ন ভিন্ন তথ্যজগৎ। রাষ্ট্রীয় দৃষ্টিতে এটি একটি সূক্ষ্ম কিন্তু গভীর সমস্যা। কারণ এখানে সরাসরি কোনো আইন লঙ্ঘন দৃশ্যমান না হলেও, নির্বাচনের ন্যায্য প্রতিযোগিতার পরিবেশ ধীরে ধীরে ক্ষয়প্রাপ্ত হয়।
বট ও কৃত্রিম জনমত তৈরি রাষ্ট্রের জন্য নতুন চ্যালেঞ্জ। নির্বাচনী সময়ে সামাজিক যোগাযোগমাধ্যমে হঠাৎ করে মতামতের ঢেউ তৈরি হওয়া এখন পরিচিত ঘটনা। প্রযুক্তিগত বিশ্লেষণে দেখা যায়, অনেক ক্ষেত্রেই এসব মতামতের বড় অংশ আসে স্বয়ংক্রিয় বট বা সমন্বিত ফেক অ্যাকাউন্ট থেকে।
এই বট নেটওয়ার্কগুলো নির্দিষ্ট বার্তা বারবার ছড়িয়ে দিয়ে একটি কৃত্রিম জনপ্রিয়তা তৈরি করে। সাধারণ নাগরিক তখন মনে করেন, এটি হয়তো সংখ্যাগরিষ্ঠের মতামত। বাস্তবে এটি একটি প্রযুক্তিনির্ভর নির্মাণ। রাষ্ট্রীয় দৃষ্টিতে জনমত অত্যন্ত গুরুত্বপূর্ণ বিষয়। কারণ রাষ্ট্রের বৈধতা ও রাজনৈতিক সিদ্ধান্ত অনেকাংশে জনমতের ওপর নির্ভরশীল। যদি সেই জনমত কৃত্রিমভাবে প্রভাবিত হয়, তবে তা গণতান্ত্রিক ব্যবস্থার ভিত্তিকেই দুর্বল করে।
বিভ্রান্তি, গুজব ও ভোটার অংশগ্রহণ নির্বাচনের গ্রহণযোগ্যতা নির্ভর করে ভোটার অংশগ্রহণের ওপর। কৃত্রিম বুদ্ধিমত্তা নির্ভর ভুয়া তথ্য ও বিভ্রান্তিকর কনটেন্ট কখনো কখনো ভোটারদের মধ্যে অনিশ্চয়তা সৃষ্টি করে।
ভোটের তারিখ, ভোটকেন্দ্র বা পদ্ধতি নিয়ে বিভ্রান্তিকর তথ্য ছড়িয়ে পড়লে অনেক ভোটার অংশগ্রহণ থেকে বিরত থাকতে পারেন। এটি সরাসরি সহিংসতা সৃষ্টি না করলেও, রাষ্ট্রীয় দৃষ্টিতে এটি একটি নীরব কিন্তু কার্যকর ঝুঁকি।
বাংলাদেশের নির্বাচনী অভিজ্ঞতায় দেখা গেছে, নির্বাচন নিয়ে অনিশ্চয়তা ও আস্থার সংকট ভোটার উপস্থিতিকে প্রভাবিত করে। কৃত্রিম বুদ্ধিমত্তা নির্ভর বিভ্রান্তি সেই সংকটকে আরও গভীর করতে পারে।
বিদ্যমান আইন ও প্রাতিষ্ঠানিক সীমাবদ্ধতা
বাংলাদেশের নির্বাচন সংক্রান্ত আইন ও আচরণবিধি মূলত প্রচলিত প্রচারণা কাঠামোর ওপর ভিত্তি করে প্রণীত। ডিজিটাল কনটেন্ট, ডিপফেক বা কৃত্রিম বুদ্ধিমত্তা নির্ভর রাজনৈতিক প্রচারণা নিয়ে সুনির্দিষ্ট সংজ্ঞা ও নির্দেশনা এখনো স্পষ্ট নয়।
এই আইনগত শূন্যতা রাষ্ট্রীয় নিয়ন্ত্রণকে দুর্বল করে এবং অপব্যবহারের সুযোগ তৈরি করে। প্রযুক্তির অগ্রগতির সঙ্গে তাল মিলিয়ে আইন ও নীতিমালা হালনাগাদ করা এখন সময়ের দাবি।
ফলে রাষ্ট্রকেন্দ্রিক সমন্বিত উদ্যোগ নির্বাচনে কৃত্রিম বুদ্ধিমত্তার অপব্যবহার প্রতিরোধে রাষ্ট্রকে সমন্বিতভাবে কাজ করতে হবে। প্রথমত, আইন ও নীতিমালা প্রণয়ন। নির্বাচনী সময়ে কৃত্রিম বুদ্ধিমত্তা নির্ভর কনটেন্টের স্বচ্ছতা নিশ্চিত করতে হবে। কোন কনটেন্ট কৃত্রিমভাবে তৈরি—তা স্পষ্টভাবে উল্লেখ করার বাধ্যবাধকতা বিবেচনায় নেওয়া যেতে পারে।
দ্বিতীয়ত, প্রাতিষ্ঠানিক সক্ষমতা বৃদ্ধি। নির্বাচন কমিশনসহ সংশ্লিষ্ট সংস্থাগুলোর প্রযুক্তিগত সক্ষমতা বাড়ানো জরুরি, যাতে তারা ডিজিটাল পরিসরে নজরদারি ও বিশ্লেষণ করতে পারে।
তৃতীয়ত, ডিজিটাল প্ল্যাটফর্মের দায়বদ্ধতা। রাষ্ট্র ও প্ল্যাটফর্মগুলোর মধ্যে নীতিগত সমন্বয় জোরদার করা প্রয়োজন, যাতে নির্বাচনী সময়ে বিভ্রান্তিকর কনটেন্ট দ্রুত শনাক্ত ও নিয়ন্ত্রণ করা যায়।
চতুর্থত, নাগরিক সচেতনতা ও শিক্ষা। ডিজিটাল ও মিডিয়া লিটারেসি শিক্ষা ব্যবস্থার অংশ হওয়া প্রয়োজন, যাতে নাগরিকরা তথ্য যাচাইয়ের সক্ষমতা অর্জন করেন।
প্রযুক্তির সঙ্গে রাষ্ট্রের দায়িত্বশীল সহাবস্থান
কৃত্রিম বুদ্ধিমত্তা কোনো শত্রু নয়। সঠিক নীতিমালা ও নিয়ন্ত্রণের মাধ্যমে এটি রাষ্ট্র ও গণতন্ত্রের সহায়ক হতে পারে। তবে নিয়ন্ত্রণহীন অবস্থায় এই প্রযুক্তি নির্বাচনের মতো সংবেদনশীল প্রক্রিয়াকে প্রশ্নবিদ্ধ করতে পারে।
রাষ্ট্রের দায়িত্ব হলো প্রযুক্তিকে অস্বীকার না করে তাকে নীতির কাঠামোর মধ্যে আনা। নির্বাচন মানুষের অধিকার ও রাষ্ট্রের ভিত্তি। এই ভিত্তি যেন কোনো অ্যালগরিদমের অনিচ্ছাকৃত প্রভাবের কাছে দুর্বল না হয়—সেই সতর্কতাই আজ সময়ের দাবি। গণতন্ত্র টিকে থাকে আস্থার ওপর। আর সেই আস্থা রক্ষার দায়িত্ব প্রযুক্তির নয়—রাষ্ট্রের।
অধ্যাপক ড. মোহা. হাছানাত আলী : উপাচার্য, নওগাঁ বিশ্ববিদ্যালয়