টেকনিক্যাল এসইও টিউটোরিয়াল (Technical SEO Tutorial)

Technical SEO Tutorialটেকনিক্যাল এসইও হলো সার্চ ইঞ্জিন অপটিমাইজেশনের একটি গুরুত্বপূর্ণ অংশ, যেখানে আমরা একটি ওয়েবসাইটের প্রযুক্তিগত দিকগুলো অপটিমাইজ করি, যাতে সার্চ ইঞ্জিন ক্রলাররা আমাদের সাইট সহজে খুঁজে পায় এবং ইন্ডেক্স করতে পারে। 

একটি ওয়েবসাইটের কাঠামো, স্পিড, মোবাইল-ফ্রেন্ডলিনেস এবং সুরক্ষা বা সিকুরিটি- এই সবকিছুই টেকনিক্যাল এসইও-এর আওতায় আসে। 

এই টিউটোরিয়াল থেকে জানতে পারবেন

  • টেকনিক্যাল এসইওর কি?
  • কেন টেকনিক্যাল এসইও গুরুত্বপূর্ণ ?
  • অন-পেজ, অফ-পেজ এবং টেকনিক্যাল এসইও এর মধ্যে পার্থক্য কি? 
  • টেকনিক্যাল এসইও অডিট 
  • টেকনিক্যাল এসইও চেকলিস্ট
  • প্রয়োজনীয় টুল & রিসোর্স
  • উপসংহার 
  • FAQ (Frequently Asked Questions) 

টেকনিক্যাল এসইও কি? (What is Technical SEO?) 

টেকনিক্যাল এসইও (Technical SEO) হচ্ছে—ওয়েবসাইটের প্রযুক্তিগত সেটআপ ও অপ্টিমাইজেশন, যা সার্চ ইঞ্জিনের জন্য সাইটের ক্রলিং (Crawling), ইনডেক্সিং (Indexing), এবং ব্যাখ্যা (Understanding) সহজ করে।
এর প্রধান লক্ষ্য হলো—সাইটের কাঠামো, স্পিড, মোবাইল ইউজার ফ্রেন্ডলি, নিরাপত্তা, এবং গুগলসহ অন্যান্য সার্চ ইঞ্জিন বট যেন খুব সহজে এবং দ্রুত পেজ/কনটেন্ট এক্সেস ও বুঝতে পারে, সেটা নিশ্চিত করা। উদাহরণ: Robots.txt, Sitemap.xml, SSL/HTTPS, Canonical Tag, Schema Markup, 404/Page Not Found Error Fix, Speed অপ্টিমাইজ, Mobile-friendly Design ইত্যাদি।  

কেন টেকনিক্যাল এসইও গুরুত্বপূর্ণ? (Why Technical SEO is Important?)

টেকনিক্যাল এসইও এমন একটি প্রক্রিয়া যা সার্চ ইঞ্জিনের বট বা স্পাইডারকে আপনার ওয়েবসাইট সহজে Crawl ও Index করতে সহায়তা করে। ভালোভাবে করা টেকনিক্যাল অপ্টিমাইজেশন—বিশেষ করে Page Speed, Mobile-Friendliness, এবং HTTPS সিকিউরিটি—গুগলের র‍্যাঙ্কিংয়ে সরাসরি ইতিবাচক প্রভাব ফেলে। 
 
এর ফলে ব্যবহারকারীরা আপনার ওয়েবসাইটে দ্রুত, নিরাপদ ও সুবিধাজনক অভিজ্ঞতা পান, যা User Experience (UX) ও Accessibility বৃদ্ধি করে। এর ফলেই Bounce Rate কমে যায় এবং Conversion Rate বৃদ্ধি পায়। এছাড়া, Google Search Console বা SEMrush-এর মাধ্যমে টেকনিক্যাল Errors ও Warnings সহজে শনাক্ত করে দ্রুত ঠিক করা যায়, যা ওয়েবসাইটের সার্বিক পারফরম্যান্স উন্নত করে এবং সার্চ ইঞ্জিনে দীর্ঘমেয়াদী স্থিতিশীল র‍্যাঙ্ক নিশ্চিত করে।

অন-পেজ, অফ-পেজ এবং টেকনিক্যাল এসইও এর মধ্যে পার্থক্য কি?(What is the difference between on-page, off-page and technical SEO?)

বিভাগ

সংজ্ঞা

মূল কাজ

নিয়ন্ত্রণ

উদাহরণ

On-Page SEO

ওয়েবসাইটের ভেতরের কনটেন্ট ও ট্যাগ/স্ট্রাকচার অপ্টিমাইজ

Keyword, Title, Meta Tag, H1-H6, Internal Link, Alt Text

নিজের হাতে

কিওয়ার্ড, টাইটেল, মেটা, কনটেন্ট অপ্টিমাইজ

Off-Page SEO

ওয়েবসাইটের বাইরের কার্যক্রম

Backlink, Social Share, Guest Post, Brand Mention

আংশিক নিয়ন্ত্রণ

ব্যাকলিঙ্ক, গেস্ট পোস্ট, লোকাল ডিরেক্টরি

Technical SEO

ওয়েবসাইটের টেকনিক্যাল রেডিনেস ও বট/ইউজার ফ্রেন্ডলি অপ্টিমাইজ

Speed, Mobile, Sitemap, Robots.txt, Canonical, Schema

নিজের হাতে

পেজ স্পিড, ইন্ডেক্সিং, সাইট আর্কিটেকচার, SSL

  • অন-পেইজ হলো কনটেন্ট ও পেজ অপ্টিমাইজেশন
  • অফ-পেইজ হলো বাইরের অথরিটি ও ব্যাকলিঙ্ক
  • টেকনিক্যাল হচ্ছে সাইটের প্রযুক্তিগত স্বাস্থ্যের ফাউন্ডেশন, যাতে কনটেন্ট ও লিঙ্ক আসলেই Google-এর চোখে পৌছায় ও মূল্যায়ন পায়

এই তিন ভাগ অপ্টিমাইজাইশনের সমন্বয়ে সাইটে সার্চ র‍্যাংক ও অথরিটি পাওয়া সম্ভব। 

টেকনিক্যাল এসইওর মূল উপাদান (Key elements of technical SEO)

ক্রলিং(Crawling) ও ইনডেক্সিং (Indexing)

ক্রলিং হলো সার্চ ইঞ্জিনের বট/স্পাইডার যখন আপনার ওয়েবসাইটের পেজগুলো ঘুরে ঘুরে খুঁজে দেখে, সেগুলোতে কী কী কনটেন্ট আছে। মানে Googlebot আপনার সাইটে ঢুকে লিংক ধরে ধরে সব পেজ ভিজিট বা স্ক্যান করার প্রক্রিয়া হলো ক্রলিং। 

ইনডেক্সিং হলো সার্চ ইঞ্জিন যখন আপনার ওয়েবসাইটের তথ্য নিজের ডেটাবেসে সংরক্ষণ করে রাখে, যাতে পরে সার্চ রেজাল্টে দেখাতে পারে। মানে Google আপনার পেজ বুঝে নিয়ে নিজের “ডাটাবেসে”-এ রাখে। 

XML Sitemap

XML Sitemap হলো একটি বিশেষ ধরনের ফাইল যেখানে আপনার ওয়েবসাইটের সব গুরুত্বপূর্ণ পেজের তালিকা থাকে। এই ফাইলটি সার্চ ইঞ্জিনকে সাহায্য করে কোন কোন পেজ ইনডেক্স করতে হবে এবং কোনগুলো সবচেয়ে গুরুত্বপূর্ণ তা বোঝাতে।
সহজ ভাষায়, XML Sitemap = আপনার ওয়েবসাইটের মানচিত্র। কোন কোন পেজ ইম্পর্ট্যান্ট, আপডেটেড—তার লিস্ট থাকে এখানে। 

Robots.txt

Robots.txt হলো একটি টেক্সট ফাইল, যা আপনি আপনার ওয়েবসাইটের রুট ফোল্ডারে রাখেন, এবং এটি সার্চ ইঞ্জিনের বটকে বলে দেয়— কোন পেজ ক্রল করতে পারবে আর কোন পেজ ক্রল করা নিষিদ্ধ।
সহজ ভাষায়, Robots.txt = গুগলবটের জন্য গেটকিপার। এটি বলে—
•    “এই পেজগুলো ক্রল করো।”
•    “এই অংশগুলোতে ঢুকবে না।”

উদাহরণ
User-agent: *
Disallow: /admin/
Allow: /
এর মানে—
•    সব বট (* = all bots)
•    /admin/ পেজ ক্রল করতে পারবে না
•    বাকি সব পেজ ক্রল করতে পারবে 

Crawl errors  

Crawl Errors হলো সেই সমস্যা, যখন গুগলবট আপনার ওয়েবসাইটের কোনো পেজ ক্রল করতে চায় কিন্তু কোনো কারণে সেটিতে পৌঁছাতে বা লোড করতে পারে না।

কেন Crawl Error হয়?

•    পেজ ডিলিট হয়ে গেছে (404 Not Found)
•    সার্ভার ডাউন (5xx errors)
•    robots.txt দিয়ে ব্লক করা
•    URL ভুল বা ভেঙে গেছে
•    রিডাইরেক্ট লুপ আছে

Crawl Errors এর প্রভাব

•    পেজ ইনডেক্স হয় না
•    র‍্যাঙ্ক কমে যায়
•    ট্রাফিক কমতে পারে 

Canonical Tag

Canonical Tag হলো একটি HTML ট্যাগ যা সার্চ ইঞ্জিনকে বলে দেয় যে একই ধরনের বা ডুপ্লিকেট কনটেন্ট থাকলে কোন URL-টা আসল (primary) বা প্রধান পেজ।

যদি আপনার একই কনটেন্ট ২–৩টি URL-এ থাকে:
•    example.com/page
•    example.com/page?ref=facebook
•    example.com/page?utm=google

তাহলে আসল URL (canonical) হিসেবে আপনি সেট করবেন:
<link rel="canonical" href="https://example.com/page" />

কেন Canonical Tag গুরুত্বপূর্ণ?
•    ডুপ্লিকেট কনটেন্ট সমস্যা দূর করে
•    র‍্যাঙ্কিং সিগন্যাল ঠিক রাখে
•    ইনডেক্সিংকে ঠিক রাখে 

Schema Markup / Structured Data

Schema Markup / Structured Data হলো এক ধরনের কোড যা আপনি আপনার ওয়েবসাইটে যোগ করেন, যাতে গুগল আপনার কনটেন্ট আরও ভালোভাবে বুঝতে পারে।
সহজ ভাষায়, Schema Markup = গুগলকে কনটেন্ট বুঝানোর জন্য দেওয়া বিশেষ লেবেল বা ট্যাগ। এটি গুগলকে বলে দেয়—“এই পেজে কী আছে?” যেমন Article, Product, Review, FAQ, Recipe, Event ইত্যাদি।

কোন কোন Schema সবচেয়ে বেশি ব্যবহৃত হয়?

•    Article
•    Product
•    Review
•    FAQ
•    How-To
•    Breadcrumb
•    Organization
•    Local Business

কেন Schema ব্যবহার করা হয়?

•    সার্চ রেজাল্টে Rich Snippet দেখাতে
(Star Rating, Price, FAQ Dropdown, Breadcrumb, Recipe Time ইত্যাদি)
•    CTR বাড়াতে
•    কনটেন্ট দ্রুত বুঝাতে
•    AI Search/SGE-তে দৃশ্যমানতা বাড়াতে 

সাইট আর্কিটেকচার ও ইউআরএল স্ট্রাকচার (Site Architecture & URL Structure)

Site Architecture হলো আপনার সাইটের সমস্ত পেজ কীভাবে সাজানো থাকবে তার কাঠামো।URL Structure হলো আপনার পেজগুলোর ঠিকানার (URL) ফরম্যাট। এগুলো SEO-তে খুব গুরুত্বপূর্ণ কারণ এগুলো গুগলকে বুঝতে সাহায্য করে— কোন পেজ কোথায় আছে, কোনটা গুরুত্বপূর্ণ, ও ব্যবহারকারী কত সহজে নেভিগেট করতে পারে।

1) Flat Site Structure বনাম Deep Structure 

Flat Structure (ফ্ল্যাট স্ট্রাকচার): ২–৩ ক্লিকেই সব গুরুত্বপূর্ণ পেজে পৌঁছানো যায়।
গুগলবট দ্রুত সব পেজ খুঁজে পায়। উদাহরণ: Home → Category → Page
সুবিধা: দ্রুত ক্রলিং,ইউজারের জন্য সহজ, SEO-ফ্রেন্ডলি

Deep Structure (ডিপ স্ট্রাকচার): ৪–৬+ লেভেল নিচে নেমে পেজে যেতে হয়। অনেক লেয়ার থাকায় ক্রলিং ধীরে হয়। উদাহরণ:Home → Category → Sub-category → Sub-sub-category → Page
অসুবিধা: ক্রলিং স্লো,ভিজিটর সহজে পেইজ খুঁজে পায় না ,SEO-তে সমস্যা

2) SEO-Friendly URL 

SEO-Friendly URL মানে পরিষ্কার, ছোট, অর্থবোধক এবং কীওয়ার্ড-সমৃদ্ধ URL। ভালো URL (উদাহরণ): https://example.com/gardening-tools/hand-pruner
খারাপ URL (উদাহরণ): https://example.com/p=123?ref=x&cat=45

SEO-friendly URL-এর নিয়ম:

•    ছোট ও পরিষ্কার রাখুন
•    হাইফেন (-) ব্যবহার করুন
•    কীওয়ার্ড দিন
•    অযথা সংখ্যা/সিম্বল নয়
•    lowercase ব্যবহার করুন

3) Breadcrumbs 

Breadcrumbs হলো নেভিগেশন লিঙ্ক, যা দেখায় আপনি কোন পেজে আছেন এবং কীভাবে হোমপেজে ফিরে যেতে পারবেন। উদাহরণ: Home > Gardening > Tools > Hand Pruner

কেন Breadcrumbs গুরুত্বপূর্ণ?

•    ইউজার সহজে নেভিগেট করতে পারে
•    URL structure পরিষ্কার হয়
•    গুগলে Breadcrumb Rich Snippet দেখায়
•    সাইট স্ট্রাকচার শক্তিশালী করে

মোবাইল-ফ্রেন্ডলি অপটিমাইজেশন (Mobile Optimization)

Google এখন Mobile-first Indexing ব্যবহার করে; অর্থাৎ মোবাইল ভার্সনের কনটেন্টই ইনডেক্স ও র‍্যাংকিং-এর বেসিক। রেসপনসিভ ডিজাইন, টেক্সট-পড়ার মতো সাইজ, ক্লিকযোগ্য বাটন, এবং মোবাইলে দ্রুত লোড হওয়া খুব জরুরি।

Page Speed / Performance Optimization

লোড টাইম বেশি হলে UX খারাপ হয়, Core Web Vitals নষ্ট হয় এবং সরাসরি র‍্যাংকেও প্রভাব পড়ে। ইমেজ কম্প্রেশন, ব্রাউজার ক্যাশিং, CDN, রেন্ডার-ব্লকিং JS/CSS কমানো, এবং লেজি লোডিং দিয়ে পারফরম্যান্স বাড়ানো যায়। 

Secure Site (HTTPS/SSL)

HTTPS/SSL দিয়ে ডেটা এনক্রিপ্টেড থাকে, যা নিরাপত্তা ও ট্রাস্ট দুটোই বাড়ায় এবং Google এটিকে পজিটিভ র‍্যাংকিং সিগন্যাল হিসেবে ধরে। মিক্সড কনটেন্ট ও ইনভ্যালিড সার্টিফিকেট ফিক্স করা টেকনিক্যাল অডিটের গুরুত্বপূর্ণ অংশ। 

Duplicate Content Issue

একই বা প্রায় একই কনটেন্ট একাধিক ইউআরএলে থাকলে Google কনফিউজ হয় কোনটা র‍্যাংক করবে, ফলে ভিজিবিলিটি কমে। Canonical, 301 রিডাইরেক্ট, noindex, এবং ইউনিক কনটেন্ট স্ট্র্যাটেজি দিয়ে এই সমস্যা সামলানো হয়। 

Core Web Vitals (CLS, LCP, FID/INP)

•    LCP (Largest Contentful Paint): মেইন কনটেন্ট কত দ্রুত লোড হচ্ছে; সাধারণভাবে ২.৫ সেকেন্ডের মধ্যে থাকা ভালো বলা হয়। 
•    FID/INP: ইউজার ইনপুটের পর পেজ কত দ্রুত রেসপন্স করে; ১০০ মিলিসেকেন্ডের নিচে রাখার রেকমেন্ডেশন থাকে। 
•    CLS (Cumulative Layout Shift): পেজ লোডের সময় এলিমেন্ট এলোমেলো শিফট হচ্ছে কিনা—এটা কম রাখা দরকার। 


404 / Error Handling

সঠিক 404 পেজ থাকলে ভাঙা ইউআরএল থেকে ইউজার হিউম্যান-রিডেবল মেসেজ পায় এবং ইন্টারনাল লিঙ্ক বা সার্চ বক্স দিয়ে সাইটেই থাকতে পারে। বড় পরিমাণ 404, 5xx বা ভুল রিডাইরেক্ট ক্রল বাজেট নষ্ট করে, তাই নিয়মিত লগ যাচাই করে ঠিক করা উচিত।

AMP (Accelerated Mobile Pages)

AMP দ্রুত মোবাইল পেজ লোডের জন্য তৈরী, আগে নিউজ/ব্লগে বেশি ইউজ হতো; এখন Core Web Vitals ভালো হলে অনেক সাইট AMP ছাড়াই ভালো পারফর্ম করছে। AMP এখনও স্পিড ও কিছু নির্দিষ্ট কেসে ইউজফুল, কিন্তু ২০২৪–২৫ এ এটিকে বাধ্যতামূলক সিগন্যাল হিসেবে ধরা হয় না।

International SEO (hreflang, Multilingual Setups)

একই কনটেন্টের ভিন্ন ভাষা বা দেশের ভার্সন থাকলে hreflang দিয়ে Google-কে জানাতে হয় কোনটি কোন অডিয়েন্সের জন্য। এতে আন্তর্জাতিক সাইটে ভুল দেশে “ভুল ভাষা” রেজাল্ট দেখানোর ঝুঁকি কমে এবং লোকালাইজড র‍্যাংকিং বাড়ে।

Pagination ও Faceted Navigation

ই-কমার্স বা ব্লগ আর্কাইভে Pagination এবং ফিল্টার (facets) ঠিকভাবে হ্যান্ডেল না করলে ডুপ্লিকেট ও থিন পেজের সাগর তৈরি হয়। rel=”next/prev” এখন ডিফল্ট সিগন্যাল না হলেও, কানোনিকাল, noindex, প্রপার প্যারামিটার হ্যান্ডলিং (GSC বা সার্ভার সাইড লজিক) দিয়ে ক্রল বাজেট সেভ করা হয়। 

Image Optimization (ALT tag, WebP, Lazy Load)

ইমেজে বর্ণনামূলক ALT টেক্সট দিলে অ্যাক্সেসিবিলিটি বাড়ে এবং ইমেজ সার্চ থেকেও ট্রাফিক আসে। WebP/AVIF ফরম্যাট, কমপ্রেশন, রেসপনসিভ সাইজিং এবং নিচের দিকে থাকা ইমেজে lazy-loading ব্যবহার করলে স্পিড ও Core Web Vitals দুটোই উন্নত হয়। 

টেকনিক্যাল এসইও অডিট (Technical SEO Audit)

টেকনিক্যাল এসইও অডিটের ধাপঃ

ধাপ ১: বেসিক টুল সেটআপ নিশ্চিত করুন

  • Google Search Console (GSC), GA4, Screaming Frog/SEMrush Site Audit, এবং PageSpeed Insights/GTmetrix আগে থেকে কানেক্ট ও ভেরিফাই করে নিন।
  • বড় সাইট হলে নিয়মিত ক্রল (সাপ্তাহিক/মাসিক) শিডিউল সেট করে রাখুন, যাতে নতুন ইস্যু ধরা পড়ে।

ধাপ ২: Screaming Frog / SEMrush দিয়ে ফুল সাইট ক্রল

  • Screaming Frog দিয়ে পুরো সাইট ক্রল চালান; SEMrush / Ahrefs Site Audit হলে প্রজেক্ট সেট করে Crawl শুরু করুন। 
  • ক্রল শেষে ৪০৪, ৫xx, রিডাইরেক্ট লুপ, ডুপ্লিকেট টাইটেল/ডেসক্রিপশন, ক্যানোনিকাল সমস্যা, noindex পেজ, hreflang/AMP/Schema এরর ইত্যাদি রিপোর্টগুলো নোট করুন। 

ধাপ ৩: Google Search Console থেকে ইনডেক্সিং ও কভারেজ চেক

  • GSC → Index / Pages (বা Coverage) রিপোর্টে গিয়ে কোন ইউআরএল ইনডেক্সড, কোনগুলো Excluded, Soft 404, Alternate canonicals ইত্যাদি দেখে নিন। 
  • গুরুত্বপূর্ণ পেজগুলো ভুল করে noindex, canonical অন্য ইউআরএলে, বা রিডাইরেক্ট হয়ে আছে কিনা যাচাই করুন। 

ধাপ ৪: ক্রলেবিলিটি: robots.txt, sitemap.xml

  • Screaming Frog বা ব্রাউজারে /robots.txt খুলে Disallow রুল রিভিউ করুন—গুরুত্বপূর্ণ সেকশন ব্লক আছে কি না দেখুন। 
  • XML Sitemap-এ ২০০ স্টেটাস, indexable ও লাইভ পেজ আছে কিনা চেক করুন; ৩xx, ৪xx, ৫xx, noindex পেজ যেন না থাকে। 
  • GSC → Sitemaps থেকে সাইটম্যাপ সাবমিটেড ও Success/Warning/Error স্টেটাস রিভিউ করুন। 

ধাপ ৫: স্পিড ও Core Web Vitals অডিট

  • PageSpeed Insights / Lighthouse দিয়ে Core Web Vitals (LCP, CLS, INP) রিপোর্ট বের করুন—ডেস্কটপ ও মোবাইল আলাদা করে। 
  • Screaming Frog-এর Performance রিপোর্ট বা তৃতীয় পক্ষ টুল (GTmetrix) থেকে বড় JS/CSS, ইমেজ, সার্ভার রেসপন্স টাইম নোট করুন। 

ধাপ ৬: মোবাইল ফ্রেন্ডলি ও UX ইস্যু

  • GSC → Mobile Usability / Page Experience থেকে মোবাইলভিত্তিক সমস্যা (টেক্সট ছোট, টাচ টার্গেট সঙ্কুচিত, কনটেন্ট ওভারফ্লো) চেক করুন। 
  • Responsive ব্রেকপয়েন্টে (320px, 768px, 1024px) মূল টেমপ্লেটগুলো ভিজুয়ালি টেস্ট করুন। 

ধাপ ৭: HTTPS ও সিকিউরিটি

  • পুরো সাইট HTTPS এ চলছে কিনা, HTTP → HTTPS 301 রিডাইরেক্ট হচ্ছে কিনা, মিক্সড কনটেন্ট (HTTP ইমেজ/স্ক্রিপ্ট) আছে কিনা টুল দিয়ে দেখুন। 
  • Screaming Frog-এ রিপোর্ট থেকে non-HTTPS ইউআরএল ফিল্টার করে ঠিক করুন। 

ধাপ ৮: ডুপ্লিকেট ও ক্যানোনিকাল ইস্যু

•    Screaming Frog-এর duplicate titles, duplicate content, এবং canonical reports ট্যাব থেকে ডুপ্লিকেট পেজ লিস্ট বের করুন। 
•    প্রয়োজন অনুযায়ী Canonical সেট, 301 merge, বা noindex দিয়ে indexable set পরিষ্কার করুন। 

ধাপ ৯: Schema / Structured Data ভ্যালিডেশন

•    Screaming Frog বা SEMrush-এ Structured Data errors/warnings দেখুন। 
•    Google Rich Results Test দিয়ে Article, Product, FAQ, LocalBusiness, Breadcrumb ইত্যাদি স্কিমা টেস্ট করুন। 

ধাপ ১০: Error handling (404, 5xx, Redirects)

•    Internal লিঙ্ক থেকে আসা 404, Soft 404, 5xx সার্ভার এরর ফিক্স করুন—সঠিক 301/302 বা প্রাসঙ্গিক পেজে রিডাইরেক্ট দিন। 
•    404 পেজকে ব্র্যান্ডেড ও হেল্পফুল করুন (হোম লিঙ্ক, সার্চ বক্স, পপুলার কনটেন্ট)। 

টেকনিক্যাল চেকলিস্ট (Technical checklist) 

#

বিষয়

চেকপয়েন্ট

robots.txt

• Disallow: /wp-admin/ টাইপ সীমিত সিস্টেম ইউআরএল; গুরুত্বপূর্ণ পেজ/ফোল্ডার কখনো না
• Sitemap URL robots.txt ফাইলে যোগ করুন

XML Sitemap

• শুধু ২০০-স্টেটাস, indexable URL দিন; noindex, রিডাইরেক্টেড, ৪০৪ পেজ বাদ দিন
• বড় সাইটে সাইটম্যাপ ভেঙে দিন (blog-sitemap.xml, product-sitemap.xml ইত্যাদি)

Indexing সেটআপ

• GSC কভারেজে “Crawled – currently not indexed” বা “Discovered – not indexed” বেশি থাকলে Thin/Low-value পেজ কমান
• ক্রিটিক্যাল পেজে ভুল noindex, canonical অন্য ডোমেইন/ইউআরএলে আছে কিনা দেখুন

URL Structure ও Internal Linking

• ক্লিন, কিওয়ার্ড-ফোকাসড, ছোট ইউআরএল ব্যবহার করুন; অপ্রয়োজনীয় প্যারামিটার কমান
• ক্যাটাগরি/সাইলেন্টারনাল লিঙ্কিং দিয়ে Deep pages-কে ২–৩ ক্লিকের মধ্যে আনুন

Mobile-Friendliness

• Responsive টেমপ্লেট, readable font, proper tap targets, intrusive popup কমান
• মোবাইল ভার্সনে মূল কনটেন্ট উপস্থিত কিনা চেক করুন (Mobile-first Indexing ফোকাস)

Page Speed & Core Web Vitals

• LCP কমাতে: hero image optimised, critical CSS inline, heavy JS defer করুন
• CLS কমাতে: fixed height/width for images/ads, layout shift কমান
• INP/FID কমাতে: heavy JS, third-party script, বড় bundle split/optimize করুন

HTTPS / SSL

• সব HTTP ইউআরএলকে HTTPS-এ 301 করুন
• canonical, hreflang, sitemap এ HTTPS ইউআরএল মিলিয়ে দেখুন

Duplicate Content & Canonical

• একই কনটেন্টের প্রিন্ট/ট্যাগ/প্যারামিটার ইউআরএল থাকলে canonical সেট করুন
• অপ্রয়োজনীয় ট্যাগ/আর্কাইভ পেজগুলো noindex করে Thin index কমান

Schema Markup

• মূল টাইপ: Article/BlogPosting, Product, LocalBusiness, FAQ, BreadcrumbList ইত্যাদি যোগ করুন
• Wrong/Spammy structured data এড়িয়ে চলুন

১০

404 / Redirect Policy

• ভাঙা internal link সঠিক ইউআরএলে আপডেট করুন
• mass redirect chain/loop ক্লিন করুন
• গুরুত্বপূর্ণ ইউআরএল চেঞ্জ করলে পুরনো থেকে নতুনে single 301 chain রাখুন

১১

Images & Media

• ALT টেক্সটে কনটেন্টের context ও কিওয়ার্ড যুক্ত করুন (কিওয়ার্ড স্টাফিং নয়)
• WebP/AVIF, lazy loading, responsive sizes (srcset) ব্যবহার করুন

১২

International / Language Setup

• ভিন্ন ভাষা/দেশের পেজে সঠিক hreflang pair (x-default সহ) সেট করুন
• Duplicate language without hreflang
index dilution ঠেকাতে অডিট করুন


প্রয়োজনীয় টুল & রিসোর্স (Required Tools & Resources) 

Google Search Console

Google Search Console দিয়ে সাইটের ক্রলিং, ইনডেক্সিং, সার্চ পারফরম্যান্স, Core Web Vitals, পেজ এক্সপেরিয়েন্স, লিংক প্রোফাইল, ম্যানুয়াল অ্যাকশনসহ প্রায় সব টেকনিক্যাল সিগন্যাল মনিটর করা যায়। ২০২৫-এ এটি GA4 ও Looker Studio’র সাথে ইন্টিগ্রেশন ও উন্নত API সাপোর্টের মাধ্যমে আরও শক্তিশালী ডায়াগনস্টিক প্ল্যাটফর্ম হয়ে উঠেছে।

Google PageSpeed Insights

PageSpeed Insights মোবাইল ও ডেস্কটপ—দুই ভিউতেই পারফরম্যান্স স্কোর, Core Web Vitals (LCP, FID/INP, CLS) এবং লোড টাইমের সমস্যা ও রেকমেন্ডেশন দেখায়। টুলটি Lighthouse ভিত্তিক Lab data + CrUX-এর Field data একসাথে দেখিয়ে স্পিড অপ্টিমাইজেশনের অগ্রাধিকার ঠিক করতে সাহায্য করে। 

Screaming Frog

Screaming Frog একটি ডেস্কটপ ওয়েবসাইট ক্রলার, যা সাইটকে সার্চ ইঞ্জিনের মতো ক্রল করে ৪০৪/রিডাইরেক্ট, ডুপ্লিকেট কনটেন্ট, টাইটেল/মেটা সমস্যা, রেসপন্স কোড, ক্যানোনিকাল, সাইটম্যাপ ভ্যালিডেশন ইত্যাদি খুঁজে বের করে। এছাড়া এটি XML Sitemap জেনারেট, রিডাইরেক্ট চেইন/লুপ শনাক্ত এবং বড় সাইটের টেকনিক্যাল অডিটে স্ট্যান্ডার্ড টুল হিসেবে ব্যবহৃত হয়। 

SEMrush

SEMrush-এর Site Audit ফিচার দিয়ে টেকনিক্যাল ইস্যু (ব্রোকেন লিঙ্ক, ক্রল এরর, ডুপ্লিকেট কনটেন্ট, HTTPS সমস্যা, Core Web Vitals ইত্যাদি) অটো-স্ক্যান ও প্রায়োরিটাইজড রিপোর্ট পাওয়া যায়। পাশাপাশি কীওয়ার্ড রিসার্চ, পজিশন ট্র্যাকিং, ব্যাকলিঙ্ক অডিট ও কম্পেটিটর অ্যানালাইসিসও এক প্ল্যাটফর্মে করা যায়।

GTmetrix

GTmetrix পেজের লোড টাইম, রিকোয়েস্ট সংখ্যা, পেজ সাইজ, waterfall breakdown এবং Core Web Vitals মেট্রিক দেখিয়ে পারফরম্যান্স বটলনেক চিহ্নিত করতে সহায়তা করে। এই টুল দিয়ে নির্দিষ্ট স্ক্রিপ্ট/রিসোর্সের লেটেন্সি বোঝা এবং CDN বা ক্যাশিং কনফিগারেশনের ইফেক্ট মাপা সহজ হয়। 

Moz Pro

Moz Pro মূলত কীওয়ার্ড, লিঙ্ক প্রোফাইল ও অন-পেজ অপ্টিমাইজেশনের জন্য পরিচিত, তবে এর Site Crawl ফিচারে ক্রল এরর, ডুপ্লিকেট কনটেন্ট, টাইটেল/মেটা ইস্যু ও রিডাইরেক্ট সমস্যা ধরা যায়। MozBar বা অন্যান্য টুলের সাথে মিলিয়ে ডোমেইন অথরিটি ও লিঙ্ক কোয়ালিটি মূল্যায়নেও এটি সহায়ক। 

Ahrefs

Ahrefs Site Audit মডিউল দিয়ে সাইটের টেকনিক্যাল হেলথ স্কোর, ক্রলেবিলিটি, ইনডেক্সিং, ইন্টারনাল লিঙ্কিং, পারফরম্যান্স ইস্যু ইত্যাদি বের করা যায়; আর Site Explorer অংশে ব্যাকলিঙ্ক, অর্গ্যানিক কিওয়ার্ড, টপ পেজ অ্যানালাইসিস করা হয়। অনেক এজেন্সি Screaming Frog + Ahrefs একসাথে ব্যবহার করে গভীর টেকনিক্যাল + অফ-পেজ ইনসাইট পায়। 

Schema.org মার্কআপ জেনারেটর

বিভিন্ন অনলাইন Schema Markup Generator (যেমন Article, FAQ, Product, LocalBusiness জেনারেটর) ব্যবহার করে JSON-LD স্ক্রিপ্ট তৈরি করে সাইটে যোগ করা যায়, যাতে সার্চ ইঞ্জিন সহজে কনটেন্ট টাইপ বুঝতে পারে। পরবর্তীতে Rich Results Test বা GSC-এর Enhancements রিপোর্ট দিয়ে ভ্যালিডেশন করা উচিত।

Mobile-Friendly Test

Google-এর Mobile-Friendly Test বা GSC Page Experience সেকশন দিয়ে পেজ মোবাইলে ঠিকমতো রেন্ডার হচ্ছে কিনা, ফন্ট/বাটন ছোট কি না, ভিউপোর্ট সেটাপ ঠিক আছে কি না—এসব চেক করা যায়। মোবাইল-ফার্স্ট ইনডেক্সিং যুগে এটি টেকনিক্যাল অডিটের বাধ্যতামূলক অংশ হিসেবে ধরা হয়।

উপসংহার

টেকনিক্যাল এসইও হলো আপনার পুরো SEO স্ট্রাটেজির ফাউন্ডেশন; Google Search Essentials–এর টেকনিক্যাল রিকোয়ারমেন্টগুলো ফলো না করলে কনটেন্ট যতই ভালো হোক, স্টেবল ভিজিবিলিটি ধরে রাখা কঠিন। তাই রেগুলার অডিট করে ক্রলিং/ইনডেক্সিং, সাইট আর্কিটেকচার, স্পিড, মোবাইল UX, Core Web Vitals ও ডুপ্লিকেট কনটেন্ট ইস্যু গুলো ঠিক রাখা এখন বাধ্যতামূলক বেস্ট প্র্যাকটিস হিসেবে ধরা হচ্ছে। 

FAQ (Frequently Asked Questions)

প্রশ্ন ১: টেকনিক্যাল এসইও না করলে কি র‍্যাংক হবে না?

টেকনিক্যাল এসইও ঠিক না থাকলে Google আপনার পেজ ঠিকমতো crawl, render ও index করতে পারবে না, ফলে কনটেন্ট ভালো হলেও অনেক সময় সার্চ রেজাল্টে আদৌ দেখা নাও যেতে পারে। তাই একেবারে “র‍্যাংক হবে না” না বললেও, টেকনিক্যাল ফাউন্ডেশন দুর্বল থাকলে স্টেবল ও স্কেলেবল র‍্যাংক রাখা বাস্তবে খুব কঠিন। 

প্রশ্ন ২: Robots.txt ভুল হলে কি সমস্যা?

Robots.txt-এ যদি ভুল করে পুরো সাইট, important ফোল্ডার, অথবা CSS/JS ফাইলগুলো block করে দেন, তাহলে Google পেজ সঠিকভাবে রেন্ডার করতে পারবে না এবং মোবাইল ফ্রেন্ডলিনেস/লেআউট বুঝতে ব্যর্থ হবে—এতে র‍্যাংক নেমে যেতে পারে। Disallow রুল দিয়ে আসল কনটেন্ট বা critical resource ব্লক করা এখন “fatal error” টাইপ মিসটেক হিসেবে ধরা হয়। 

প্রশ্ন ৩: শুধু WordPress প্লাগিন দিয়ে কি টেকনিক্যাল এসইও যথেষ্ট?

Yoast/Rank Math/অন্যান্য প্লাগিন XML sitemap, meta tag, basic schema, canonical ইত্যাদি অনেক কিছু সহজ করে, কিন্তু সার্ভার লেভেল স্পিড, Core Web Vitals, robots.txt স্ট্র্যাটেজি, সাইট আর্কিটেকচার, security ইস্যু—এসব পুরোপুরি প্লাগিন-ডিপেন্ডেন্ট রেখে দিলে ফাঁক থেকেই যায়। অর্থাৎ প্লাগিন সহায়তা করে, কিন্তু পূর্ণাঙ্গ টেকনিক্যাল এসইও’র বিকল্প না। 

প্রশ্ন ৪: কোন টুল সবচেয়ে বেস্ট?


একটা “সর্বশ্রেষ্ঠ” টুল নেই; কম্বিনেশন ব্যবহার করাই বাস্তবে স্ট্যান্ডার্ড প্র্যাকটিস। Google Search Console ইনডেক্সিং ও সার্চ পারফরম্যান্স, Screaming Frog গভীর ক্রল অডিট, SEMrush/Ahrefs অফ-পেজ + টেকনিক্যাল, আর PageSpeed Insights/GTmetrix Core Web Vitals ও স্পিডের জন্য বেশি ব্যবহৃত হয়। টুল চয়েস সাধারণত বাজেট, সাইটের সাইজ ও কাজের ধরন অনুযায়ী নির্ভর করে। 

প্রশ্ন ৫: AMP এখনো দরকারি কি?

এখন আর AMP ছাড়া Top Stories বা ভালো মোবাইল র‍্যাংক পাওয়া যায় না—এমন শর্ত নেই; Google অনেক আগেই এই requirement তুলে দিয়েছে। ২০২৫ সালে কনসensus হলো: সাইট যদি responsive, দ্রুত ও Core Web Vitals পাস করে, তাহলে আলাদা AMP মেইনটেইন করার দরকার নেই; বরং সেই সময় ও বাজেট স্পিড, UX ও কনটেন্টে খরচ করাই বেশি লাভজনক। 

nnnnn