টেকনিক্যাল এসইও হলো সার্চ ইঞ্জিন অপটিমাইজেশনের একটি
গুরুত্বপূর্ণ অংশ, যেখানে আমরা একটি ওয়েবসাইটের প্রযুক্তিগত দিকগুলো
অপটিমাইজ করি, যাতে সার্চ ইঞ্জিন ক্রলাররা আমাদের সাইট সহজে খুঁজে পায় এবং
ইন্ডেক্স করতে পারে।
একটি ওয়েবসাইটের কাঠামো, স্পিড, মোবাইল-ফ্রেন্ডলিনেস
এবং সুরক্ষা বা সিকুরিটি- এই সবকিছুই টেকনিক্যাল এসইও-এর আওতায় আসে।
এই টিউটোরিয়াল থেকে জানতে পারবেন
- টেকনিক্যাল এসইওর কি?
- কেন টেকনিক্যাল এসইও গুরুত্বপূর্ণ ?
- অন-পেজ, অফ-পেজ এবং টেকনিক্যাল এসইও এর মধ্যে পার্থক্য কি?
- টেকনিক্যাল এসইও অডিট
- টেকনিক্যাল এসইও চেকলিস্ট
- প্রয়োজনীয় টুল & রিসোর্স
- উপসংহার
- FAQ (Frequently Asked Questions)
টেকনিক্যাল এসইও কি? (What is Technical SEO?)
টেকনিক্যাল
এসইও (Technical SEO) হচ্ছে—ওয়েবসাইটের প্রযুক্তিগত সেটআপ ও
অপ্টিমাইজেশন, যা সার্চ ইঞ্জিনের জন্য সাইটের ক্রলিং (Crawling), ইনডেক্সিং
(Indexing), এবং ব্যাখ্যা (Understanding) সহজ করে।
এর প্রধান লক্ষ্য
হলো—সাইটের কাঠামো, স্পিড, মোবাইল ইউজার ফ্রেন্ডলি, নিরাপত্তা, এবং গুগলসহ
অন্যান্য সার্চ ইঞ্জিন বট যেন খুব সহজে এবং দ্রুত পেজ/কনটেন্ট এক্সেস ও
বুঝতে পারে, সেটা নিশ্চিত করা। উদাহরণ: Robots.txt, Sitemap.xml,
SSL/HTTPS, Canonical Tag, Schema Markup, 404/Page Not Found Error Fix,
Speed অপ্টিমাইজ, Mobile-friendly Design ইত্যাদি।
কেন টেকনিক্যাল এসইও গুরুত্বপূর্ণ? (Why Technical SEO is Important?)
টেকনিক্যাল
এসইও এমন একটি প্রক্রিয়া যা সার্চ ইঞ্জিনের বট বা স্পাইডারকে আপনার
ওয়েবসাইট সহজে Crawl ও Index করতে সহায়তা করে। ভালোভাবে করা টেকনিক্যাল
অপ্টিমাইজেশন—বিশেষ করে Page Speed, Mobile-Friendliness, এবং HTTPS
সিকিউরিটি—গুগলের র্যাঙ্কিংয়ে সরাসরি ইতিবাচক প্রভাব ফেলে।
এর
ফলে ব্যবহারকারীরা আপনার ওয়েবসাইটে দ্রুত, নিরাপদ ও সুবিধাজনক অভিজ্ঞতা
পান, যা User Experience (UX) ও Accessibility বৃদ্ধি করে। এর ফলেই Bounce
Rate কমে যায় এবং Conversion Rate বৃদ্ধি পায়। এছাড়া, Google Search
Console বা SEMrush-এর মাধ্যমে টেকনিক্যাল Errors ও Warnings সহজে শনাক্ত
করে দ্রুত ঠিক করা যায়, যা ওয়েবসাইটের সার্বিক পারফরম্যান্স উন্নত করে
এবং সার্চ ইঞ্জিনে দীর্ঘমেয়াদী স্থিতিশীল র্যাঙ্ক নিশ্চিত করে।
অন-পেজ, অফ-পেজ এবং টেকনিক্যাল এসইও এর মধ্যে পার্থক্য কি?(What is the difference between on-page, off-page and technical SEO?)
|
বিভাগ |
সংজ্ঞা |
মূল কাজ |
নিয়ন্ত্রণ |
উদাহরণ |
|
On-Page SEO |
ওয়েবসাইটের ভেতরের কনটেন্ট ও ট্যাগ/স্ট্রাকচার অপ্টিমাইজ |
Keyword, Title, Meta Tag, H1-H6, Internal Link, Alt Text |
নিজের হাতে |
কিওয়ার্ড, টাইটেল, মেটা, কনটেন্ট অপ্টিমাইজ |
|
Off-Page SEO |
ওয়েবসাইটের বাইরের কার্যক্রম |
Backlink, Social Share, Guest Post, Brand Mention |
আংশিক নিয়ন্ত্রণ |
ব্যাকলিঙ্ক, গেস্ট পোস্ট, লোকাল ডিরেক্টরি |
|
Technical SEO |
ওয়েবসাইটের টেকনিক্যাল রেডিনেস ও বট/ইউজার ফ্রেন্ডলি অপ্টিমাইজ |
Speed, Mobile, Sitemap, Robots.txt, Canonical, Schema |
নিজের হাতে |
পেজ স্পিড, ইন্ডেক্সিং, সাইট আর্কিটেকচার, SSL |
- অন-পেইজ হলো কনটেন্ট ও পেজ অপ্টিমাইজেশন
- অফ-পেইজ হলো বাইরের অথরিটি ও ব্যাকলিঙ্ক
- টেকনিক্যাল হচ্ছে সাইটের প্রযুক্তিগত স্বাস্থ্যের ফাউন্ডেশন, যাতে কনটেন্ট ও লিঙ্ক আসলেই Google-এর চোখে পৌছায় ও মূল্যায়ন পায়
এই তিন ভাগ অপ্টিমাইজাইশনের সমন্বয়ে সাইটে সার্চ র্যাংক ও অথরিটি পাওয়া সম্ভব।
টেকনিক্যাল এসইওর মূল উপাদান (Key elements of technical SEO)
ক্রলিং(Crawling) ও ইনডেক্সিং (Indexing)
ক্রলিং হলো সার্চ ইঞ্জিনের বট/স্পাইডার যখন আপনার ওয়েবসাইটের পেজগুলো ঘুরে ঘুরে খুঁজে দেখে, সেগুলোতে কী কী কনটেন্ট আছে। মানে Googlebot আপনার সাইটে ঢুকে লিংক ধরে ধরে সব পেজ ভিজিট বা স্ক্যান করার প্রক্রিয়া হলো ক্রলিং।
ইনডেক্সিং হলো সার্চ ইঞ্জিন যখন আপনার ওয়েবসাইটের তথ্য নিজের ডেটাবেসে সংরক্ষণ করে রাখে, যাতে পরে সার্চ রেজাল্টে দেখাতে পারে। মানে Google আপনার পেজ বুঝে নিয়ে নিজের “ডাটাবেসে”-এ রাখে।
XML Sitemap
XML Sitemap হলো একটি বিশেষ ধরনের ফাইল যেখানে আপনার ওয়েবসাইটের সব গুরুত্বপূর্ণ পেজের তালিকা থাকে। এই ফাইলটি সার্চ ইঞ্জিনকে সাহায্য করে কোন কোন পেজ ইনডেক্স করতে হবে এবং কোনগুলো সবচেয়ে গুরুত্বপূর্ণ তা বোঝাতে।
সহজ ভাষায়, XML Sitemap = আপনার ওয়েবসাইটের মানচিত্র। কোন কোন পেজ ইম্পর্ট্যান্ট,
আপডেটেড—তার লিস্ট থাকে এখানে।
Robots.txt
Robots.txt হলো একটি টেক্সট ফাইল, যা আপনি আপনার ওয়েবসাইটের রুট ফোল্ডারে রাখেন, এবং এটি সার্চ ইঞ্জিনের বটকে বলে দেয়— কোন পেজ ক্রল করতে পারবে আর কোন পেজ ক্রল করা নিষিদ্ধ।
সহজ ভাষায়, Robots.txt = গুগলবটের জন্য গেটকিপার। এটি বলে—
• “এই পেজগুলো ক্রল করো।”
• “এই অংশগুলোতে ঢুকবে না।”
উদাহরণ
User-agent: *
Disallow: /admin/
Allow: /
এর মানে—
• সব বট (* = all bots)
• /admin/ পেজ ক্রল করতে পারবে না
• বাকি সব পেজ ক্রল করতে পারবে
Crawl errors
Crawl Errors হলো সেই সমস্যা, যখন গুগলবট আপনার ওয়েবসাইটের কোনো পেজ ক্রল করতে চায় কিন্তু কোনো কারণে সেটিতে পৌঁছাতে বা লোড করতে পারে না।
কেন Crawl Error হয়?
• পেজ ডিলিট হয়ে গেছে (404 Not Found)
• সার্ভার ডাউন (5xx errors)
• robots.txt দিয়ে ব্লক করা
• URL ভুল বা ভেঙে গেছে
• রিডাইরেক্ট লুপ আছে
Crawl Errors এর প্রভাব
• পেজ ইনডেক্স হয় না
• র্যাঙ্ক কমে যায়
• ট্রাফিক কমতে পারে
Canonical Tag
Canonical Tag হলো একটি HTML ট্যাগ যা সার্চ ইঞ্জিনকে বলে দেয় যে একই ধরনের বা ডুপ্লিকেট কনটেন্ট থাকলে কোন URL-টা আসল (primary) বা প্রধান পেজ।
যদি আপনার একই কনটেন্ট ২–৩টি URL-এ থাকে:
• example.com/page
• example.com/page?ref=facebook
• example.com/page?utm=google
তাহলে আসল URL (canonical) হিসেবে আপনি সেট করবেন:
<link rel="canonical" href="https://example.com/page" />
কেন Canonical Tag গুরুত্বপূর্ণ?
• ডুপ্লিকেট কনটেন্ট সমস্যা দূর করে
• র্যাঙ্কিং সিগন্যাল ঠিক রাখে
• ইনডেক্সিংকে ঠিক রাখে
Schema Markup / Structured Data
Schema Markup / Structured Data হলো এক ধরনের কোড যা আপনি আপনার ওয়েবসাইটে যোগ করেন, যাতে গুগল আপনার কনটেন্ট আরও ভালোভাবে বুঝতে পারে।
সহজ ভাষায়, Schema Markup = গুগলকে কনটেন্ট বুঝানোর জন্য দেওয়া বিশেষ লেবেল বা ট্যাগ। এটি গুগলকে বলে দেয়—“এই পেজে কী আছে?” যেমন Article, Product, Review, FAQ, Recipe, Event ইত্যাদি।
কোন কোন Schema সবচেয়ে বেশি ব্যবহৃত হয়?
• Article
• Product
• Review
• FAQ
• How-To
• Breadcrumb
• Organization
• Local Business
কেন Schema ব্যবহার করা হয়?
• সার্চ রেজাল্টে Rich Snippet দেখাতে
(Star Rating, Price, FAQ Dropdown, Breadcrumb, Recipe Time ইত্যাদি)
• CTR বাড়াতে
• কনটেন্ট দ্রুত বুঝাতে
• AI Search/SGE-তে দৃশ্যমানতা বাড়াতে
সাইট আর্কিটেকচার ও ইউআরএল স্ট্রাকচার (Site Architecture & URL Structure)
Site Architecture হলো আপনার সাইটের সমস্ত পেজ কীভাবে সাজানো থাকবে তার কাঠামো।URL Structure হলো আপনার পেজগুলোর ঠিকানার (URL) ফরম্যাট। এগুলো SEO-তে খুব গুরুত্বপূর্ণ কারণ এগুলো গুগলকে বুঝতে সাহায্য করে— কোন পেজ কোথায় আছে, কোনটা গুরুত্বপূর্ণ, ও ব্যবহারকারী কত সহজে নেভিগেট করতে পারে।
1) Flat Site Structure বনাম Deep Structure
Flat Structure (ফ্ল্যাট স্ট্রাকচার): ২–৩ ক্লিকেই সব গুরুত্বপূর্ণ পেজে পৌঁছানো যায়।
গুগলবট দ্রুত সব পেজ খুঁজে পায়। উদাহরণ: Home → Category → Page
সুবিধা: দ্রুত ক্রলিং,ইউজারের জন্য সহজ, SEO-ফ্রেন্ডলি
Deep Structure (ডিপ স্ট্রাকচার): ৪–৬+ লেভেল নিচে নেমে পেজে যেতে হয়। অনেক লেয়ার থাকায় ক্রলিং ধীরে হয়। উদাহরণ:Home → Category → Sub-category → Sub-sub-category → Page
অসুবিধা: ক্রলিং স্লো,ভিজিটর সহজে পেইজ খুঁজে পায় না ,SEO-তে সমস্যা
2) SEO-Friendly URL
SEO-Friendly URL মানে পরিষ্কার, ছোট, অর্থবোধক এবং কীওয়ার্ড-সমৃদ্ধ URL। ভালো URL (উদাহরণ): https://example.com/gardening-tools/hand-pruner
খারাপ URL (উদাহরণ): https://example.com/p=123?ref=x&cat=45
SEO-friendly URL-এর নিয়ম:
• ছোট ও পরিষ্কার রাখুন
• হাইফেন (-) ব্যবহার করুন
• কীওয়ার্ড দিন
• অযথা সংখ্যা/সিম্বল নয়
• lowercase ব্যবহার করুন
3) Breadcrumbs
Breadcrumbs হলো নেভিগেশন লিঙ্ক, যা দেখায় আপনি কোন পেজে আছেন এবং কীভাবে হোমপেজে ফিরে যেতে পারবেন। উদাহরণ: Home > Gardening > Tools > Hand Pruner
কেন Breadcrumbs গুরুত্বপূর্ণ?
• ইউজার সহজে নেভিগেট করতে পারে
• URL structure পরিষ্কার হয়
• গুগলে Breadcrumb Rich Snippet দেখায়
• সাইট স্ট্রাকচার শক্তিশালী করে
মোবাইল-ফ্রেন্ডলি অপটিমাইজেশন (Mobile Optimization)
Google এখন Mobile-first Indexing ব্যবহার করে; অর্থাৎ মোবাইল ভার্সনের কনটেন্টই ইনডেক্স ও র্যাংকিং-এর বেসিক। রেসপনসিভ ডিজাইন, টেক্সট-পড়ার মতো সাইজ, ক্লিকযোগ্য বাটন, এবং মোবাইলে দ্রুত লোড হওয়া খুব জরুরি।
Page Speed / Performance Optimization
লোড টাইম বেশি হলে UX খারাপ হয়, Core Web Vitals নষ্ট হয় এবং সরাসরি র্যাংকেও প্রভাব পড়ে। ইমেজ কম্প্রেশন, ব্রাউজার ক্যাশিং, CDN, রেন্ডার-ব্লকিং JS/CSS কমানো, এবং লেজি লোডিং দিয়ে পারফরম্যান্স বাড়ানো যায়।
Secure Site (HTTPS/SSL)
HTTPS/SSL দিয়ে ডেটা এনক্রিপ্টেড থাকে, যা নিরাপত্তা ও ট্রাস্ট দুটোই বাড়ায় এবং Google এটিকে পজিটিভ র্যাংকিং সিগন্যাল হিসেবে ধরে। মিক্সড কনটেন্ট ও ইনভ্যালিড সার্টিফিকেট ফিক্স করা টেকনিক্যাল অডিটের গুরুত্বপূর্ণ অংশ।
Duplicate Content Issue
একই বা প্রায় একই কনটেন্ট একাধিক ইউআরএলে থাকলে Google কনফিউজ হয় কোনটা র্যাংক করবে, ফলে ভিজিবিলিটি কমে। Canonical, 301 রিডাইরেক্ট, noindex, এবং ইউনিক কনটেন্ট স্ট্র্যাটেজি দিয়ে এই সমস্যা সামলানো হয়।
Core Web Vitals (CLS, LCP, FID/INP)
• LCP (Largest Contentful Paint): মেইন কনটেন্ট কত দ্রুত লোড হচ্ছে; সাধারণভাবে ২.৫ সেকেন্ডের মধ্যে থাকা ভালো বলা হয়।
• FID/INP: ইউজার ইনপুটের পর পেজ কত দ্রুত রেসপন্স করে; ১০০ মিলিসেকেন্ডের নিচে রাখার রেকমেন্ডেশন থাকে।
• CLS (Cumulative Layout Shift): পেজ লোডের সময় এলিমেন্ট এলোমেলো শিফট হচ্ছে কিনা—এটা কম রাখা দরকার।
404 / Error Handling
সঠিক 404 পেজ থাকলে ভাঙা ইউআরএল থেকে ইউজার হিউম্যান-রিডেবল মেসেজ পায় এবং ইন্টারনাল লিঙ্ক বা সার্চ বক্স দিয়ে সাইটেই থাকতে পারে। বড় পরিমাণ 404, 5xx বা ভুল রিডাইরেক্ট ক্রল বাজেট নষ্ট করে, তাই নিয়মিত লগ যাচাই করে ঠিক করা উচিত।
AMP (Accelerated Mobile Pages)
AMP দ্রুত মোবাইল পেজ লোডের জন্য তৈরী, আগে নিউজ/ব্লগে বেশি ইউজ হতো; এখন Core Web Vitals ভালো হলে অনেক সাইট AMP ছাড়াই ভালো পারফর্ম করছে। AMP এখনও স্পিড ও কিছু নির্দিষ্ট কেসে ইউজফুল, কিন্তু ২০২৪–২৫ এ এটিকে বাধ্যতামূলক সিগন্যাল হিসেবে ধরা হয় না।
International SEO (hreflang, Multilingual Setups)
একই কনটেন্টের ভিন্ন ভাষা বা দেশের ভার্সন থাকলে hreflang দিয়ে Google-কে জানাতে হয় কোনটি কোন অডিয়েন্সের জন্য। এতে আন্তর্জাতিক সাইটে ভুল দেশে “ভুল ভাষা” রেজাল্ট দেখানোর ঝুঁকি কমে এবং লোকালাইজড র্যাংকিং বাড়ে।
Pagination ও Faceted Navigation
ই-কমার্স বা ব্লগ আর্কাইভে Pagination এবং ফিল্টার (facets) ঠিকভাবে হ্যান্ডেল না করলে ডুপ্লিকেট ও থিন পেজের সাগর তৈরি হয়। rel=”next/prev” এখন ডিফল্ট সিগন্যাল না হলেও, কানোনিকাল, noindex, প্রপার প্যারামিটার হ্যান্ডলিং (GSC বা সার্ভার সাইড লজিক) দিয়ে ক্রল বাজেট সেভ করা হয়।
Image Optimization (ALT tag, WebP, Lazy Load)
ইমেজে বর্ণনামূলক ALT টেক্সট দিলে অ্যাক্সেসিবিলিটি বাড়ে এবং ইমেজ সার্চ থেকেও ট্রাফিক আসে। WebP/AVIF ফরম্যাট, কমপ্রেশন, রেসপনসিভ সাইজিং এবং নিচের দিকে থাকা ইমেজে lazy-loading ব্যবহার করলে স্পিড ও Core Web Vitals দুটোই উন্নত হয়।
টেকনিক্যাল এসইও অডিট (Technical SEO Audit)
টেকনিক্যাল এসইও অডিটের ধাপঃ
ধাপ ১: বেসিক টুল সেটআপ নিশ্চিত করুন
- Google Search Console (GSC), GA4, Screaming Frog/SEMrush Site Audit, এবং PageSpeed Insights/GTmetrix আগে থেকে কানেক্ট ও ভেরিফাই করে নিন।
- বড় সাইট হলে নিয়মিত ক্রল (সাপ্তাহিক/মাসিক) শিডিউল সেট করে রাখুন, যাতে নতুন ইস্যু ধরা পড়ে।
ধাপ ২: Screaming Frog / SEMrush দিয়ে ফুল সাইট ক্রল
- Screaming Frog দিয়ে পুরো সাইট ক্রল চালান; SEMrush / Ahrefs Site Audit হলে প্রজেক্ট সেট করে Crawl শুরু করুন।
- ক্রল শেষে ৪০৪, ৫xx, রিডাইরেক্ট লুপ, ডুপ্লিকেট টাইটেল/ডেসক্রিপশন, ক্যানোনিকাল সমস্যা, noindex পেজ, hreflang/AMP/Schema এরর ইত্যাদি রিপোর্টগুলো নোট করুন।
ধাপ ৩: Google Search Console থেকে ইনডেক্সিং ও কভারেজ চেক
- GSC → Index / Pages (বা Coverage) রিপোর্টে গিয়ে কোন ইউআরএল ইনডেক্সড, কোনগুলো Excluded, Soft 404, Alternate canonicals ইত্যাদি দেখে নিন।
- গুরুত্বপূর্ণ পেজগুলো ভুল করে noindex, canonical অন্য ইউআরএলে, বা রিডাইরেক্ট হয়ে আছে কিনা যাচাই করুন।
ধাপ ৪: ক্রলেবিলিটি: robots.txt, sitemap.xml
- Screaming Frog বা ব্রাউজারে /robots.txt খুলে Disallow রুল রিভিউ করুন—গুরুত্বপূর্ণ সেকশন ব্লক আছে কি না দেখুন।
- XML Sitemap-এ ২০০ স্টেটাস, indexable ও লাইভ পেজ আছে কিনা চেক করুন; ৩xx, ৪xx, ৫xx, noindex পেজ যেন না থাকে।
- GSC → Sitemaps থেকে সাইটম্যাপ সাবমিটেড ও Success/Warning/Error স্টেটাস রিভিউ করুন।
ধাপ ৫: স্পিড ও Core Web Vitals অডিট
- PageSpeed Insights / Lighthouse দিয়ে Core Web Vitals (LCP, CLS, INP) রিপোর্ট বের করুন—ডেস্কটপ ও মোবাইল আলাদা করে।
- Screaming Frog-এর Performance রিপোর্ট বা তৃতীয় পক্ষ টুল (GTmetrix) থেকে বড় JS/CSS, ইমেজ, সার্ভার রেসপন্স টাইম নোট করুন।
ধাপ ৬: মোবাইল ফ্রেন্ডলি ও UX ইস্যু
- GSC → Mobile Usability / Page Experience থেকে মোবাইলভিত্তিক সমস্যা (টেক্সট ছোট, টাচ টার্গেট সঙ্কুচিত, কনটেন্ট ওভারফ্লো) চেক করুন।
- Responsive ব্রেকপয়েন্টে (320px, 768px, 1024px) মূল টেমপ্লেটগুলো ভিজুয়ালি টেস্ট করুন।
ধাপ ৭: HTTPS ও সিকিউরিটি
- পুরো সাইট HTTPS এ চলছে কিনা, HTTP → HTTPS 301 রিডাইরেক্ট হচ্ছে কিনা, মিক্সড কনটেন্ট (HTTP ইমেজ/স্ক্রিপ্ট) আছে কিনা টুল দিয়ে দেখুন।
- Screaming Frog-এ রিপোর্ট থেকে non-HTTPS ইউআরএল ফিল্টার করে ঠিক করুন।
ধাপ ৮: ডুপ্লিকেট ও ক্যানোনিকাল ইস্যু
• Screaming Frog-এর duplicate titles, duplicate content, এবং canonical reports ট্যাব থেকে ডুপ্লিকেট পেজ লিস্ট বের করুন।
• প্রয়োজন অনুযায়ী Canonical সেট, 301 merge, বা noindex দিয়ে indexable set পরিষ্কার করুন।
ধাপ ৯: Schema / Structured Data ভ্যালিডেশন
• Screaming Frog বা SEMrush-এ Structured Data errors/warnings দেখুন।
• Google Rich Results Test দিয়ে Article, Product, FAQ, LocalBusiness, Breadcrumb ইত্যাদি স্কিমা টেস্ট করুন।
ধাপ ১০: Error handling (404, 5xx, Redirects)
• Internal লিঙ্ক থেকে আসা 404, Soft 404, 5xx সার্ভার এরর ফিক্স করুন—সঠিক 301/302 বা প্রাসঙ্গিক পেজে রিডাইরেক্ট দিন।
• 404 পেজকে ব্র্যান্ডেড ও হেল্পফুল করুন (হোম লিঙ্ক, সার্চ বক্স, পপুলার কনটেন্ট)।
টেকনিক্যাল চেকলিস্ট (Technical checklist)
|
# |
বিষয় |
চেকপয়েন্ট |
|
১ |
robots.txt |
•
Disallow: /wp-admin/ টাইপ সীমিত সিস্টেম ইউআরএল; গুরুত্বপূর্ণ পেজ/ফোল্ডার কখনো
না |
|
২ |
XML Sitemap |
• শুধু ২০০-স্টেটাস,
indexable URL দিন; noindex, রিডাইরেক্টেড, ৪০৪ পেজ বাদ দিন |
|
৩ |
Indexing সেটআপ |
• GSC কভারেজে
“Crawled – currently not indexed” বা “Discovered – not indexed” বেশি থাকলে
Thin/Low-value পেজ কমান |
|
৪ |
URL Structure ও Internal Linking |
• ক্লিন,
কিওয়ার্ড-ফোকাসড, ছোট ইউআরএল ব্যবহার করুন; অপ্রয়োজনীয় প্যারামিটার কমান |
|
৫ |
Mobile-Friendliness |
•
Responsive টেমপ্লেট, readable font, proper tap targets, intrusive popup কমান |
|
৬ |
Page Speed & Core Web Vitals |
• LCP কমাতে:
hero image optimised, critical CSS inline, heavy JS defer করুন |
|
৭ |
HTTPS / SSL |
• সব
HTTP ইউআরএলকে HTTPS-এ 301 করুন |
|
৮ |
Duplicate Content & Canonical |
• একই কনটেন্টের
প্রিন্ট/ট্যাগ/প্যারামিটার ইউআরএল থাকলে canonical সেট করুন |
|
৯ |
Schema Markup |
• মূল টাইপ:
Article/BlogPosting, Product, LocalBusiness, FAQ, BreadcrumbList ইত্যাদি যোগ করুন |
|
১০ |
404 / Redirect Policy |
• ভাঙা
internal link → সঠিক ইউআরএলে আপডেট করুন |
|
১১ |
Images & Media |
• ALT টেক্সটে
কনটেন্টের context ও কিওয়ার্ড যুক্ত করুন (কিওয়ার্ড স্টাফিং নয়) |
|
১২ |
International / Language Setup |
• ভিন্ন ভাষা/দেশের
পেজে সঠিক hreflang pair (x-default সহ) সেট করুন |
প্রয়োজনীয় টুল & রিসোর্স (Required Tools & Resources)
Google Search Console
Google Search Console দিয়ে সাইটের ক্রলিং, ইনডেক্সিং, সার্চ পারফরম্যান্স, Core Web Vitals, পেজ এক্সপেরিয়েন্স, লিংক প্রোফাইল, ম্যানুয়াল অ্যাকশনসহ প্রায় সব টেকনিক্যাল সিগন্যাল মনিটর করা যায়। ২০২৫-এ এটি GA4 ও Looker Studio’র সাথে ইন্টিগ্রেশন ও উন্নত API সাপোর্টের মাধ্যমে আরও শক্তিশালী ডায়াগনস্টিক প্ল্যাটফর্ম হয়ে উঠেছে।
Google PageSpeed Insights
PageSpeed Insights মোবাইল ও ডেস্কটপ—দুই ভিউতেই পারফরম্যান্স স্কোর, Core Web Vitals (LCP, FID/INP, CLS) এবং লোড টাইমের সমস্যা ও রেকমেন্ডেশন দেখায়। টুলটি Lighthouse ভিত্তিক Lab data + CrUX-এর Field data একসাথে দেখিয়ে স্পিড অপ্টিমাইজেশনের অগ্রাধিকার ঠিক করতে সাহায্য করে।
Screaming Frog
Screaming Frog একটি ডেস্কটপ ওয়েবসাইট ক্রলার, যা সাইটকে সার্চ ইঞ্জিনের মতো ক্রল করে ৪০৪/রিডাইরেক্ট, ডুপ্লিকেট কনটেন্ট, টাইটেল/মেটা সমস্যা, রেসপন্স কোড, ক্যানোনিকাল, সাইটম্যাপ ভ্যালিডেশন ইত্যাদি খুঁজে বের করে। এছাড়া এটি XML Sitemap জেনারেট, রিডাইরেক্ট চেইন/লুপ শনাক্ত এবং বড় সাইটের টেকনিক্যাল অডিটে স্ট্যান্ডার্ড টুল হিসেবে ব্যবহৃত হয়।
SEMrush
SEMrush-এর Site Audit ফিচার দিয়ে টেকনিক্যাল ইস্যু (ব্রোকেন লিঙ্ক, ক্রল এরর, ডুপ্লিকেট কনটেন্ট, HTTPS সমস্যা, Core Web Vitals ইত্যাদি) অটো-স্ক্যান ও প্রায়োরিটাইজড রিপোর্ট পাওয়া যায়। পাশাপাশি কীওয়ার্ড রিসার্চ, পজিশন ট্র্যাকিং, ব্যাকলিঙ্ক অডিট ও কম্পেটিটর অ্যানালাইসিসও এক প্ল্যাটফর্মে করা যায়।
GTmetrix
GTmetrix পেজের লোড টাইম, রিকোয়েস্ট সংখ্যা, পেজ সাইজ, waterfall breakdown এবং Core Web Vitals মেট্রিক দেখিয়ে পারফরম্যান্স বটলনেক চিহ্নিত করতে সহায়তা করে। এই টুল দিয়ে নির্দিষ্ট স্ক্রিপ্ট/রিসোর্সের লেটেন্সি বোঝা এবং CDN বা ক্যাশিং কনফিগারেশনের ইফেক্ট মাপা সহজ হয়।
Moz Pro
Moz Pro মূলত কীওয়ার্ড, লিঙ্ক প্রোফাইল ও অন-পেজ অপ্টিমাইজেশনের জন্য পরিচিত, তবে এর Site Crawl ফিচারে ক্রল এরর, ডুপ্লিকেট কনটেন্ট, টাইটেল/মেটা ইস্যু ও রিডাইরেক্ট সমস্যা ধরা যায়। MozBar বা অন্যান্য টুলের সাথে মিলিয়ে ডোমেইন অথরিটি ও লিঙ্ক কোয়ালিটি মূল্যায়নেও এটি সহায়ক।
Ahrefs
Ahrefs Site Audit মডিউল দিয়ে সাইটের টেকনিক্যাল হেলথ স্কোর, ক্রলেবিলিটি, ইনডেক্সিং, ইন্টারনাল লিঙ্কিং, পারফরম্যান্স ইস্যু ইত্যাদি বের করা যায়; আর Site Explorer অংশে ব্যাকলিঙ্ক, অর্গ্যানিক কিওয়ার্ড, টপ পেজ অ্যানালাইসিস করা হয়। অনেক এজেন্সি Screaming Frog + Ahrefs একসাথে ব্যবহার করে গভীর টেকনিক্যাল + অফ-পেজ ইনসাইট পায়।
Schema.org মার্কআপ জেনারেটর
বিভিন্ন অনলাইন Schema Markup Generator (যেমন Article, FAQ, Product, LocalBusiness জেনারেটর) ব্যবহার করে JSON-LD স্ক্রিপ্ট তৈরি করে সাইটে যোগ করা যায়, যাতে সার্চ ইঞ্জিন সহজে কনটেন্ট টাইপ বুঝতে পারে। পরবর্তীতে Rich Results Test বা GSC-এর Enhancements রিপোর্ট দিয়ে ভ্যালিডেশন করা উচিত।
Mobile-Friendly Test
Google-এর Mobile-Friendly Test বা GSC Page Experience সেকশন দিয়ে পেজ মোবাইলে ঠিকমতো রেন্ডার হচ্ছে কিনা, ফন্ট/বাটন ছোট কি না, ভিউপোর্ট সেটাপ ঠিক আছে কি না—এসব চেক করা যায়। মোবাইল-ফার্স্ট ইনডেক্সিং যুগে এটি টেকনিক্যাল অডিটের বাধ্যতামূলক অংশ হিসেবে ধরা হয়।
উপসংহার
টেকনিক্যাল এসইও হলো আপনার পুরো SEO স্ট্রাটেজির ফাউন্ডেশন; Google Search Essentials–এর টেকনিক্যাল রিকোয়ারমেন্টগুলো ফলো না করলে কনটেন্ট যতই ভালো হোক, স্টেবল ভিজিবিলিটি ধরে রাখা কঠিন। তাই রেগুলার অডিট করে ক্রলিং/ইনডেক্সিং, সাইট আর্কিটেকচার, স্পিড, মোবাইল UX, Core Web Vitals ও ডুপ্লিকেট কনটেন্ট ইস্যু গুলো ঠিক রাখা এখন বাধ্যতামূলক বেস্ট প্র্যাকটিস হিসেবে ধরা হচ্ছে।
FAQ (Frequently Asked Questions)
প্রশ্ন ১: টেকনিক্যাল এসইও না করলে কি র্যাংক হবে না?
টেকনিক্যাল এসইও ঠিক না থাকলে Google আপনার পেজ ঠিকমতো crawl, render ও index করতে পারবে না, ফলে কনটেন্ট ভালো হলেও অনেক সময় সার্চ রেজাল্টে আদৌ দেখা নাও যেতে পারে। তাই একেবারে “র্যাংক হবে না” না বললেও, টেকনিক্যাল ফাউন্ডেশন দুর্বল থাকলে স্টেবল ও স্কেলেবল র্যাংক রাখা বাস্তবে খুব কঠিন।
প্রশ্ন ২: Robots.txt ভুল হলে কি সমস্যা?
Robots.txt-এ যদি ভুল করে পুরো সাইট, important ফোল্ডার, অথবা CSS/JS ফাইলগুলো block করে দেন, তাহলে Google পেজ সঠিকভাবে রেন্ডার করতে পারবে না এবং মোবাইল ফ্রেন্ডলিনেস/লেআউট বুঝতে ব্যর্থ হবে—এতে র্যাংক নেমে যেতে পারে। Disallow রুল দিয়ে আসল কনটেন্ট বা critical resource ব্লক করা এখন “fatal error” টাইপ মিসটেক হিসেবে ধরা হয়।
প্রশ্ন ৩: শুধু WordPress প্লাগিন দিয়ে কি টেকনিক্যাল এসইও যথেষ্ট?
Yoast/Rank Math/অন্যান্য প্লাগিন XML sitemap, meta tag, basic schema, canonical ইত্যাদি অনেক কিছু সহজ করে, কিন্তু সার্ভার লেভেল স্পিড, Core Web Vitals, robots.txt স্ট্র্যাটেজি, সাইট আর্কিটেকচার, security ইস্যু—এসব পুরোপুরি প্লাগিন-ডিপেন্ডেন্ট রেখে দিলে ফাঁক থেকেই যায়। অর্থাৎ প্লাগিন সহায়তা করে, কিন্তু পূর্ণাঙ্গ টেকনিক্যাল এসইও’র বিকল্প না।
প্রশ্ন ৪: কোন টুল সবচেয়ে বেস্ট?
একটা “সর্বশ্রেষ্ঠ” টুল নেই; কম্বিনেশন ব্যবহার করাই বাস্তবে স্ট্যান্ডার্ড প্র্যাকটিস। Google Search Console ইনডেক্সিং ও সার্চ পারফরম্যান্স, Screaming Frog গভীর ক্রল অডিট, SEMrush/Ahrefs অফ-পেজ + টেকনিক্যাল, আর PageSpeed Insights/GTmetrix Core Web Vitals ও স্পিডের জন্য বেশি ব্যবহৃত হয়। টুল চয়েস সাধারণত বাজেট, সাইটের সাইজ ও কাজের ধরন অনুযায়ী নির্ভর করে।
প্রশ্ন ৫: AMP এখনো দরকারি কি?
এখন আর AMP ছাড়া Top Stories বা ভালো মোবাইল র্যাংক পাওয়া যায় না—এমন শর্ত নেই; Google অনেক আগেই এই requirement তুলে দিয়েছে। ২০২৫ সালে কনসensus হলো: সাইট যদি responsive, দ্রুত ও Core Web Vitals পাস করে, তাহলে আলাদা AMP মেইনটেইন করার দরকার নেই; বরং সেই সময় ও বাজেট স্পিড, UX ও কনটেন্টে খরচ করাই বেশি লাভজনক।
nnnnn

Follow Me and SEO Mania