استفاده از Python + Streamlit برای یافتن فرصت‌های کلیدی فاصله قابل توجه

بیاموزید که چگونه از اسکریپت پایتون + برنامه Streamlit برای شناسایی فرصت‌های کلیدی فاصله قابل توجه استفاده کنید – بدون نیاز به دانش کدنویسی!
پایتون یک ابزار عالی برای خودکارسازی کارهای تکراری و همچنین به دست آوردن بینش بیشتر در مورد داده ها است.
در این مقاله، یاد خواهید گرفت که چگونه ابزاری بسازید تا بررسی کنید کدام کلمات کلیدی به رتبه بندی در موقعیت های یک تا سه نزدیک هستند و به شما توصیه می کند که آیا فرصتی برای استفاده طبیعی آن کلمات کلیدی در صفحه وجود دارد یا خیر.
این برای مبتدیان و حرفه ای های پایتون به طور یکسان عالی است و مقدمه ای عالی برای استفاده از پایتون برای SEO است.
اگر فقط می خواهید در آن گیر کنید، یک برنامه کاربردی Streamlit برای کد موجود است. استفاده از این ساده است و نیازی به تجربه کدنویسی ندارد.
اگر می‌خواهید کد را بررسی کنید، یک برگه همکاری Google نیز وجود دارد. اگر می توانید یک وب سایت را جستجو کنید، می توانید از این اسکریپت استفاده کنید!
در اینجا نمونه ای از آنچه امروز می سازیم آورده شده است:
این کلمات کلیدی در عنوان صفحه و H1 یافت می شوند، اما در نسخه کپی نیستند. افزودن این کلمات کلیدی به طور طبیعی به نسخه موجود راهی آسان برای افزایش ارتباط این کلمات کلیدی خواهد بود.
با گرفتن راهنمایی از موتورهای جستجو و به طور طبیعی شامل هر کلمه کلیدی گم شده ای که سایت قبلاً برای آنها رتبه بندی می کند، اعتماد موتورهای جستجو را برای رتبه بندی آن کلمات کلیدی در SERP ها افزایش می دهیم.
این گزارش را می توان به صورت دستی ایجاد کرد، اما بسیار زمان بر است.
بنابراین، ما قصد داریم فرآیند را با استفاده از یک اسکریپت SEO Python خودکار کنیم.
این نمونه ای از ظاهر خروجی نهایی پس از اجرای گزارش است:
خروجی نهایی پنج فرصت برتر را بر حسب حجم جستجو برای هر صفحه می گیرد و هر کدام را به صورت افقی همراه با حجم جستجوی تخمینی قرار می دهد.
همچنین حجم کل جستجوی همه کلمات کلیدی یک صفحه در فاصله قابل توجه و همچنین تعداد کل کلمات کلیدی در دسترس را نشان می دهد.
سپس پنج کلمه کلیدی برتر بر اساس حجم جستجو بررسی می‌شوند تا ببینیم آیا در عنوان، H1 یا کپی یافت می‌شوند، سپس TRUE یا FALSE علامت‌گذاری می‌شوند.
این برای یافتن بردهای سریع عالی است! فقط کلمه کلیدی گم شده را به طور طبیعی به کپی صفحه، عنوان یا H1 اضافه کنید.
تنظیم نسبتاً ساده است. ما فقط به یک خزیدن در سایت (به طور ایده آل با استخراج سفارشی برای نسخه ای که می خواهید بررسی کنید) و یک فایل صادر شده از همه کلمات کلیدی که یک سایت برای آنها رتبه بندی می کند نیاز داریم.
این پست شما را از طریق راه‌اندازی، کد راهنمایی می‌کند و اگر می‌خواهید بدون اینکه خودتان آن را کدنویسی کنید، به برگه Google Collaboratory پیوند می‌خورد.
برای شروع به شما نیاز دارید:
ما این را گزارش فاصله قابل توجه نامگذاری کرده ایم زیرا کلمات کلیدی را که به راحتی در فاصله قابل توجه قرار دارند علامت گذاری می کند.
(ما فاصله ضربه‌ای را به‌عنوان کلمات کلیدی تعریف کرده‌ایم که در جایگاه‌های 4 تا 20 قرار می‌گیرند، اما در صورتی که بخواهید پارامترهای خود را تعریف کنید، آن را به گزینه‌ای قابل تنظیم تبدیل کرده‌ایم.)
من تصمیم گرفتم از Screaming Frog برای دریافت خزیدن اولیه استفاده کنم. هر خزنده ای کار می کند، تا زمانی که صادرات CSV از همان نام ستون ها استفاده کند یا نام آنها مطابقت داده شود.
اسکریپت انتظار دارد ستون های زیر را در صادرات CSV خزیدن پیدا کند:
اولین کاری که باید انجام دهید این است که به تنظیمات پیکربندی اصلی در Screaming Frog بروید:
پیکربندی > عنکبوت > خزیدن
تنظیمات اصلی برای استفاده عبارتند از:
خزیدن پیوندهای داخلی ، Canonicals، و تنظیم صفحه بندی (Rel Next/Prev) .
(اسکریپت با هر چیز دیگری که انتخاب شده کار می کند، اما خزیدن طول می کشد تا کامل شود!)
بعد، به تب Extraction می‌روید.
پیکربندی > عنکبوت > استخراج
حداقل، باید عنوان صفحه، H1 را استخراج کنیم و محاسبه کنیم که آیا صفحه قابل فهرست بندی است یا خیر.
Indexability مفید است زیرا این یک راه آسان برای اسکریپت برای شناسایی URL هایی است که باید یکباره رها شوند و تنها کلمات کلیدی را که واجد شرایط رتبه بندی در SERP هستند باقی می گذارد.
اگر اسکریپت نتواند ستون نمایه‌سازی را پیدا کند، همچنان به صورت عادی کار می‌کند، اما بین صفحاتی که می‌توانند و نمی‌توانند رتبه‌بندی شوند، تفاوتی قائل نمی‌شود.
برای بررسی اینکه آیا یک کلمه کلیدی در کپی صفحه یافت می شود، باید یک استخراج کننده سفارشی در Screaming Frog تنظیم کنیم.
پیکربندی > سفارشی > استخراج
همانطور که در زیر مشاهده می کنید، استخراج کننده را "کپی" نام گذاری کنید.
مهم: اسکریپت انتظار دارد استخراج کننده مانند بالا "کپی" نامیده شود، بنابراین لطفاً دوباره بررسی کنید!
در نهایت، مطمئن شوید که Extract Text برای صادرات کپی به عنوان متن، به جای HTML انتخاب شده است.
اگر برای راه‌اندازی یکی از آنها به کمک نیاز دارید، راهنماهای زیادی در مورد استفاده از استخراج‌کننده‌های سفارشی به‌صورت آنلاین وجود دارد، بنابراین من دیگر در اینجا به آن نمی‌پردازم.
پس از تنظیم استخراج، زمان خزیدن در سایت و صادرات فایل HTML در قالب CSV است.
صادرات فایل CSV به سادگی تغییر منوی کشویی نمایش داده شده در زیر Internal به HTML و فشار دادن دکمه Export است.
داخلی > HTML > صادرات
پس از کلیک بر روی Export ، مهم است که مطمئن شوید نوع آن بر روی فرمت CSV تنظیم شده است.
صفحه صادرات باید مانند زیر باشد:
نکته 1: فیلتر کردن صفحات صفحه بندی
من توصیه می‌کنم با انتخاب Respect Next/Prev در تنظیمات پیشرفته ، صفحات صفحه‌بندی را از خزیدن خود فیلتر کنید (یا در صورت تمایل فقط آنها را از فایل CSV حذف کنید).
نکته 2: تنظیمات Crawl را ذخیره کنید
پس از تنظیم خزیدن، ارزش آن را دارد که تنظیمات خزیدن را ذخیره کنید (که استخراج سفارشی را نیز به خاطر بسپارید).
اگر بخواهید در آینده دوباره از اسکریپت استفاده کنید، این باعث صرفه جویی در زمان می شود.
File > Configuration > Save As
هنگامی که فایل خزیدن را در اختیار داریم، گام بعدی این است که ابزار تحقیق کلمه کلیدی مورد علاقه خود را بارگیری کنید و همه کلمات کلیدی را که یک سایت برای آنها رتبه بندی می کند صادر کنید.
هدف در اینجا این است که تمام کلمات کلیدی که یک سایت برای آنها رتبه بندی می کند، فیلتر کردن کلمات کلیدی مارک دار و هر کلمه ای که به عنوان پیوند سایت یا تصویر ایجاد می شود، صادر کند.
برای این مثال، من از گزارش کلمه کلیدی ارگانیک در Ahrefs استفاده می‌کنم، اما اگر ابزار مورد نظر شما باشد، با Semrush به خوبی کار می‌کند.
در Ahrefs، دامنه ای را که می خواهید در Site Explorer بررسی کنید وارد کنید و کلمات کلیدی ارگانیک را انتخاب کنید.
کاوشگر سایت > کلمات کلیدی ارگانیک
با این کار تمام کلمات کلیدی که سایت برای آنها رتبه بندی می کند ظاهر می شود.
گام بعدی فیلتر کردن هر کلمه کلیدی است که به عنوان پیوند سایت یا بسته تصویری ایجاد شده است.
دلیل اینکه ما نیاز به فیلتر کردن لینک های سایت داریم این است که آنها هیچ تاثیری بر رتبه بندی URL والدین ندارند. این به این دلیل است که فقط صفحه اصلی برای کلمه کلیدی رتبه بندی می کند، نه URL های لینک سایت نمایش داده شده در زیر آن.
فیلتر کردن لینک های سایت تضمین می کند که صفحه صحیح را بهینه می کنیم.
در اینجا نحوه انجام آن در Ahrefs آمده است.
در آخر، من توصیه می کنم هر کلمه کلیدی مارک دار را فیلتر کنید. می‌توانید این کار را با فیلتر کردن مستقیم خروجی CSV یا پیش فیلتر کردن در ابزار کلیدواژه انتخابی خود قبل از صادرات انجام دهید.
در نهایت، هنگام صادرات، مطمئن شوید که Export کامل و فرمت UTF-8 را مطابق شکل زیر انتخاب کنید.
به طور پیش فرض، اسکریپت با Ahrefs (v1/v2) و صادرات کلمه کلیدی Semrush کار می کند. این می تواند با هر فایل CSV کلمه کلیدی کار کند تا زمانی که نام ستون مورد انتظار اسکریپت موجود باشد.
دستورالعمل‌های زیر مربوط به اجرای یک برگه Google Collaboratory برای اجرای کد است.
اکنون گزینه ساده تری برای کسانی که آن را ترجیح می دهند در قالب یک برنامه Streamlit وجود دارد. به سادگی دستورالعمل های ارائه شده را دنبال کنید تا فایل خزیدن و کلمه کلیدی خود را آپلود کنید.
اکنون که فایل های صادر شده خود را داریم، تنها کاری که باید انجام شود این است که آنها را برای پردازش در برگه Google Colaboratory آپلود کنیم.
Runtime > Run all را از پیمایش بالا انتخاب کنید تا تمام سلول‌های صفحه اجرا شوند.
اسکریپت از شما می خواهد که ابتدا کلمه کلیدی CSV را از Ahrefs یا Semrush و سپس فایل خزیدن را آپلود کنید.
خودشه! اسکریپت به طور خودکار یک فایل CSV قابل اجرا را دانلود می کند که می توانید از آن برای بهینه سازی سایت خود استفاده کنید.
هنگامی که با کل فرآیند آشنا شدید، استفاده از اسکریپت واقعاً ساده است.
اگر پایتون را برای SEO یاد می‌گیرید و علاقه‌مندید که کد برای تولید گزارش چه کاری انجام می‌دهد، به دنبال بررسی کدها باشید!
بیایید پانداها را برای چرخاندن توپ نصب کنیم.
بعد، ما باید ماژول های مورد نیاز را وارد کنیم.
اکنون زمان تنظیم متغیرها است.
اسکریپت هر کلمه کلیدی بین موقعیت های چهار و 20 را در فاصله قابل توجهی در نظر می گیرد.
تغییر متغیرها در اینجا به شما امکان می دهد در صورت تمایل محدوده خود را تعریف کنید. ارزش آن را دارد که تنظیمات را آزمایش کنید تا بهترین خروجی ممکن را برای نیازهای خود به دست آورید.
مرحله بعدی خواندن لیست کلمات کلیدی از فایل CSV است.
برای پذیرش گزارش Ahrefs (V1 و V2) و همچنین صادرات Semrush تنظیم شده است.
این کد در فایل CSV در یک Pandas DataFrame خوانده می شود.
اگر همه چیز طبق برنامه پیش رفت، پیش نمایشی از DataFrame ایجاد شده از کلمه کلیدی صادرات CSV را مشاهده خواهید کرد.  
هنگامی که کلمات کلیدی وارد شدند، زمان آپلود فایل خزیدن فرا می رسد.
پس از اتمام آپلود فایل CSV، پیش نمایش DataFrame را مشاهده خواهید کرد.
گام بعدی تغییر نام نام ستون ها برای اطمینان از استانداردسازی بین رایج ترین انواع صادرات فایل است.
اساساً، ما کلمه کلیدی DataFrame را در وضعیت خوبی قرار می دهیم و با استفاده از برش های تعریف شده توسط متغیرها فیلتر می کنیم.
در مرحله بعد، باید داده های خزیدن را تمیز و استاندارد کنیم.
اساساً، ما از فهرست مجدد استفاده می‌کنیم تا فقط ستون‌های «آدرس»، «نماسازی‌پذیری»، «عنوان صفحه»، «H1-1» و «کپی 1» را حفظ کنیم و بقیه را کنار بگذاریم.
ما از ستون مفید "Indexability" استفاده می کنیم تا فقط ردیف هایی را که قابل نمایه سازی هستند نگه داریم. این باعث حذف URL های متعارف، تغییر مسیرها و غیره می شود. توصیه می کنم این گزینه را در خزیدن فعال کنید.
در نهایت، ما نام ستون ها را استاندارد می کنیم تا کار با آنها کمی زیباتر باشد.
با نزدیک شدن به خروجی نهایی، لازم است کلمات کلیدی خود را با هم گروه بندی کنیم تا مجموع فرصت برای هر صفحه محاسبه شود.
در اینجا، ما در حال محاسبه تعداد کلمات کلیدی در فاصله قابل توجه برای هر صفحه، همراه با حجم جستجوی ترکیبی هستیم.
پس از تکمیل، پیش نمایشی از DataFrame را مشاهده خواهید کرد.
ما از داده های گروه بندی شده به عنوان مبنایی برای خروجی نهایی استفاده می کنیم. ما از Pandas.unstack برای تغییر شکل DataFrame برای نمایش کلمات کلیدی به سبک صادرات GrepWords استفاده می کنیم.
در نهایت، ترتیب ستون نهایی را تنظیم کرده و در داده های کلیدواژه اصلی ادغام می کنیم.
تعداد زیادی ستون برای مرتب سازی و ایجاد وجود دارد!
این کد داده های حجم کلمه کلیدی را در DataFrame ادغام می کند. این کم و بیش معادل یک تابع Excel VLOOKUP است.
داده ها به تمیز کردن اضافی نیاز دارند تا مقادیر خالی (NaNs) را به عنوان رشته های خالی پر کنند. این امر خوانایی خروجی نهایی را با ایجاد سلول‌های خالی به جای سلول‌های پر از مقادیر رشته NaN بهبود می‌بخشد.
سپس، ستون‌ها را به حروف کوچک تبدیل می‌کنیم تا هنگام بررسی اینکه آیا یک کلمه کلیدی هدف در یک ستون خاص وجود دارد یا خیر، مطابقت داشته باشند.
این کد بررسی می کند که آیا کلمه کلیدی مورد نظر در عنوان صفحه/H1 یا کپی یافت می شود.
بسته به اینکه کلمه کلیدی در عناصر موجود در صفحه پیدا شده باشد، درست یا نادرست را علامت گذاری می کند.
وقتی هیچ کلمه کلیدی مجاور وجود نداشته باشد، مقادیر true/false حذف می شود.
این گزینه قابل تنظیم واقعاً برای کاهش مقدار زمان QA مورد نیاز برای خروجی نهایی با حذف فرصت کلمه کلیدی از خروجی نهایی در صورتی که در هر سه ستون یافت شود مفید است.
آخرین مرحله دانلود فایل CSV و شروع فرآیند بهینه سازی است.
اگر به دنبال بردهای سریع برای هر وب سایتی هستید، گزارش فاصله قابل توجه یک راه واقعاً آسان برای یافتن آنها است.
اجازه ندهید تعداد مراحل شما را فریب دهد. آنقدرها هم که به نظر می رسد پیچیده نیست. این به سادگی آپلود خزیدن و صادرات کلمه کلیدی در برگه Google Colab ارائه شده یا استفاده از برنامه Streamlit است.
نتایج قطعا ارزش آن را دارد!
منابع بیشتر:
تصویر ویژه: aurielaki/Shutterstock
خبرنامه روزانه ما را از لورن بیکر بنیانگذار SEJ در مورد آخرین اخبار در صنعت دریافت کنید!
لی فوت بنیانگذار و مدیر Search Solved است، یک آژانس SEO متخصص در سئوی سازمانی و تجارت الکترونیک. او … [بیو کامل را بخوانید]
برای دریافت آخرین اخبار صنعت در خبرنامه روزانه ما مشترک شوید.
برای دریافت آخرین اخبار صنعت در خبرنامه روزانه ما مشترک شوید.

source
سئو سایت

About mohtavaclick

Check Also

به روز رسانی لینکدین شامل پیشرفت هایی در نتایج جستجو می شود

به‌روزرسانی‌های لینکدین شامل بهبودهایی در کشف محتوا، زیرنویس‌ها برای رویدادهای هم‌زمان و امکان اشتراک‌گذاری نظرات …

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

قالب وردپرس وردپرس متخصص وردپرس متخصص ووکامرس افزونه وردپرس کابین وردپرس