عنوان دوره:

دوره آموزش وب اسکریپینگ و اتوماسیون با پایتون (Web Scraping & Automation using Python)

۵ فصل

۴۳ جلسه

۵ ساعت ۳۰ دقیقه ۸ ثانیه

ویدیو معرفی دوره

سرفصل دوره:

فصل ۱: مقدمه و پیش نیازهای دوره

مقدمه و معرفی دوره

locked

۰۳:۱۷

مشاهده+

در قسمت اول دوره "Web Scraping و Automation با Python"، به معرفی کلی دوره و هدف آن پرداخته‌ایم. در این بخش، شما با ساختار دوره، موضوعات مورد بحث، پیش‌نیازهای لازم، و نحوه استفاده از مهارت‌های کسب‌شده در زندگی کاری و شخصی خود آشنا می‌شوید. همچنین مدرس دوره، تجربه‌های خود را به اشتراک گذاشته و دلایل اهمیت یادگیری وب اسکریپینگ و اتوماسیون را توضیح می‌دهد.

این قسمت برای شرکت‌کنندگانی طراحی شده که می‌خواهند تصویر کاملی از روند آموزش داشته باشند و بدانند چگونه این دوره می‌تواند مسیر شغلی و دانش آن‌ها را بهبود بخشد.

آشنایی با مفهوم Web Scraping

locked

۰۲:۴۴

مشاهده+

در قسمت دوم دوره "Web Scraping و Automation با Python"، به معرفی مفهوم Web Scraping پرداخته‌ایم. در این بخش، شما با تعریف دقیق Web Scraping، کاربردهای آن در دنیای واقعی و نحوه استخراج داده‌های مفید از وب‌سایت‌ها آشنا می‌شوید.

این ویدیو به شما کمک می‌کند تا اهمیت این مهارت را در پروژه‌های مختلف مانند جمع‌آوری اطلاعات، تحلیل داده‌ها و خودکارسازی فرآیندها درک کنید. همچنین با مثال‌های ساده و قابل‌فهم، زمینه‌ای فراهم می‌شود تا در ادامه دوره بهتر بتوانید با ابزارها و تکنیک‌های Web Scraping کار کنید.

چرا یادگیری Web Scraping اهمیت دارد؟

locked

۰۳:۲۹

مشاهده+

در قسمت سوم دوره "Web Scraping و Automation با Python"، به این سوال پاسخ داده می‌شود که چرا یادگیری Web Scraping اهمیت دارد و در چه مواردی می‌توان از آن استفاده کرد. در این بخش، کاربردهای متنوع Web Scraping، از جمع‌آوری اطلاعات قیمت‌ها و تحلیل بازار گرفته تا خودکارسازی فرآیندها و استخراج داده‌های موردنیاز برای پروژه‌های مختلف، توضیح داده می‌شود.

این ویدیو به شما دیدگاهی جامع می‌دهد تا درک کنید چگونه Web Scraping می‌تواند زندگی حرفه‌ای و شخصی شما را ساده‌تر و موثرتر کند و چرا این مهارت یکی از ابزارهای کلیدی برای برنامه‌نویسان و تحلیل‌گران داده است.

چرا از زبان پایتون برای Web Scraping استفاده می کنیم؟

locked

۰۳:۰۱

مشاهده+

در قسمت چهارم دوره "Web Scraping و Automation با Python"، به بررسی دلایل استفاده از زبان برنامه‌نویسی پایتون برای Web Scraping پرداخته‌ایم. در این بخش، مزایای پایتون مانند سادگی، خوانایی، و وجود کتابخانه‌های قدرتمند مثل Beautiful Soup، Selenium و Requests توضیح داده می‌شود.

این قسمت نشان می‌دهد که چرا پایتون به‌عنوان یکی از محبوب‌ترین زبان‌ها در حوزه Web Scraping شناخته می‌شود و چگونه ابزارها و امکانات آن می‌توانند فرآیند استخراج داده‌ها را سریع‌تر و آسان‌تر کنند. این بخش مقدمه‌ای عالی برای ورود به تکنیک‌های پیشرفته‌تر است.

یادگیری و شناسایی المان های HTML

locked

۰۲:۴۰

مشاهده+

در قسمت پنجم دوره "Web Scraping و Automation با Python"، به معرفی و آموزش المان‌های HTML پرداخته‌ایم. در این بخش، با ساختار و اجزای اصلی HTML مثل تگ‌ها، Attributeها و محتوا آشنا می‌شوید و یاد می‌گیرید که چگونه این اطلاعات به شما در شناسایی و استخراج داده‌ها از صفحات وب کمک می‌کند.

این قسمت با استفاده از مثال‌های کاربردی، نحوه کار با المان‌های HTML و نقش آن‌ها در Web Scraping را توضیح می‌دهد. یادگیری این مفاهیم پایه، اولین گام ضروری برای نوشتن کدهای دقیق و موثر Web Scraping است.

استفاده از Inspect Element برای شناسایی و بررسی تگ ها و المان های HTML

۰۳:۳۶

مشاهده+

در قسمت ششم دوره "Web Scraping و Automation با Python"، نحوه استفاده از ابزار Inspect Element در مرورگر برای بررسی تگ‌ها و المان‌های HTML صفحات وب آموزش داده می‌شود. در این بخش، یاد می‌گیرید که چگونه ساختار HTML وب‌سایت‌های مختلف را تحلیل کنید و المان‌های موردنیاز خود را برای Web Scraping شناسایی کنید.

این قسمت با مثال‌های عملی، تکنیک‌های پیدا کردن تگ‌ها، کلاس‌ها و IDهای مرتبط با داده‌ها را نشان می‌دهد و شما را برای نوشتن کدهای دقیق‌تر و هدفمندتر آماده می‌کند. این مهارت یکی از ابزارهای کلیدی برای موفقیت در پروژه‌های Web Scraping است.

نصب و راه اندازی پایتون

locked

۰۴:۴۳

مشاهده+

در قسمت هفتم دوره "Web Scraping و Automation با Python"، نحوه نصب پایتون روی سیستم‌عامل ویندوز به صورت گام‌به‌گام آموزش داده می‌شود. در این بخش، فرایند دانلود، نصب و تنظیمات اولیه پایتون به شکلی ساده و کاربردی توضیح داده شده است.

با اینکه نصب پایتون روی سایر سیستم‌عامل‌ها مثل مک‌اواس و لینوکس نیز تفاوت زیادی ندارد، اما نکات اصلی نصب برای همه پلتفرم‌ها به طور کامل بیان شده است. این قسمت شما را برای شروع کار با پایتون و اجرای پروژه‌های Web Scraping آماده می‌کند.

نصب و راه اندازی VSCode و افزونه پایتون

locked

۰۴:۴۲

مشاهده+

در قسمت هشتم دوره "Web Scraping و Automation با Python"، نحوه نصب VSCode (Visual Studio Code) به‌عنوان محیط توسعه یکپارچه (IDE) و همچنین نصب افزونه پایتون برای آن آموزش داده می‌شود. در این بخش، شما یاد می‌گیرید که چطور این ابزار قدرتمند را برای نوشتن و اجرای کدهای پایتون به‌طور مؤثر راه‌اندازی کنید.

این قسمت همچنین به شما نشان می‌دهد که چگونه افزونه پایتون در VSCode را نصب و پیکربندی کنید تا محیط برنامه‌نویسی شما برای پروژه‌های Web Scraping بهینه شود. با این تنظیمات، می‌توانید از ویژگی‌های مختلف VSCode مانند تکمیل خودکار کد، اشکال‌زدایی و اجرای مستقیم کدهای پایتون بهره‌مند شوید.

فصل ۲: آموزش کار با کتابخانه Beautiful Soup

معرفی و آشنایی با کتابخانه Beautiful Soup

locked

۰۲:۲۰

مشاهده+

در اولین قسمت از فصل دوم دوره "Web Scraping و Automation با Python"، به معرفی کتابخانه قدرتمند Beautiful Soup می‌پردازیم. در این بخش، کاربردهای اصلی این کتابخانه در استخراج و پردازش داده‌ها از صفحات HTML توضیح داده می‌شود و شما یاد می‌گیرید که چرا این ابزار یکی از محبوب‌ترین انتخاب‌ها برای Web Scraping است.

این قسمت به صورت کامل توضیح می‌دهد که چگونه Beautiful Soup با ساده‌سازی دسترسی به المان‌های HTML و ساختاردهی داده‌ها، کار استخراج اطلاعات از وب‌سایت‌ها را آسان‌تر می‌کند. همچنین مثال‌هایی از کاربرد آن در پروژه‌های مختلف ارائه می‌شود تا اهمیت استفاده از این کتابخانه را بهتر درک کنید.

نحوه استفاده از کتابخانه Beautiful Soup

locked

۰۲:۰۲

مشاهده+

در قسمت دوم فصل دوم از دوره "Web Scraping و Automation با Python"، به نحوه استفاده تئوری از Beautiful Soup پرداخته و اهمیت HTML Parserها را توضیح می‌دهیم. در این بخش، یاد می‌گیرید که چگونه Beautiful Soup با کمک Parserها داده‌های HTML را پردازش و به فرمت قابل‌فهم برای استخراج تبدیل می‌کند.

این قسمت به بررسی انواع Parserهای داخلی و خارجی مثل html.parser و lxml اختصاص دارد و به شما کمک می‌کند تا درک عمیق‌تری از عملکرد Beautiful Soup و نحوه استفاده بهینه از آن داشته باشید. این آموزش گامی ضروری برای ورود به بخش‌های عملی‌تر در کار با Beautiful Soup است.

نصب کتابخانه های مورد نیاز برای شروع کار با کتابخانه Beautiful Soup

locked

۰۱:۳۴

مشاهده+

در قسمت سوم فصل دوم از دوره "Web Scraping و Automation با Python"، نحوه نصب کتابخانه‌های موردنیاز برای شروع کار با Beautiful Soup و Requests آموزش داده می‌شود.

در این بخش، یاد می‌گیرید که چگونه با استفاده از pip این کتابخانه‌ها را به‌راحتی روی سیستم خود نصب کنید. همچنین به اهمیت استفاده از Requests برای ارسال درخواست‌های HTTP و نقش آن در کنار Beautiful Soup برای دسترسی به صفحات وب پرداخته می‌شود.

این قسمت، پایه‌ای عملی برای آماده‌سازی محیط کدنویسی و شروع پروژه‌های Web Scraping شما خواهد بود.

نوشتن اولین ربات به کمک کتابخانه Beautiful Soup

locked

۰۶:۳۸

مشاهده+

در قسمت چهارم فصل دوم از دوره "Web Scraping و Automation با Python"، اولین ربات ساده خود را با استفاده از Beautiful Soup می‌نویسیم. در این بخش، رباتی طراحی می‌کنیم که به یک وب‌سایت متصل شده و محتوای صفحه (Content) را دریافت می‌کند.

این آموزش به شما کمک می‌کند تا با فرآیند اولیه Web Scraping، از ارسال درخواست به وب‌سایت تا استخراج داده‌های اولیه، آشنا شوید. نوشتن این ربات ساده، اولین گام عملی شما در مسیر یادگیری کار با Beautiful Soup است.

آشنایی با روش های مختلف جستجوی یک المان با کتابخانه Beautiful Soup

۰۴:۴۷

مشاهده+

در قسمت پنجم فصل دوم از دوره "Web Scraping و Automation با Python"، روش‌های مختلف برای پیدا کردن المان‌های موردنظر در صفحات وب با استفاده از Beautiful Soup آموزش داده می‌شود.

در این بخش، با متد soup.find() و حالت‌های متنوع آن آشنا می‌شوید. یاد می‌گیرید که چگونه با استفاده از شناسه‌ها (ID)، کلاس‌ها (Class) و سایر ویژگی‌ها، المان‌های خاص را در صفحه پیدا کنید. این قسمت پایه‌ای برای استخراج دقیق‌تر داده‌ها از صفحات وب است و به شما کمک می‌کند تا مهارت‌های خود را در کار با Beautiful Soup ارتقا دهید.

شناسایی و استفاده از المان های داخل صفحه برای استخراج داده

locked

۰۶:۲۸

مشاهده+

در قسمت ششم فصل دوم از دوره "Web Scraping و Automation با Python"، از آموخته‌های قسمت قبل استفاده می‌کنیم تا یک المان خاص را در یک وب‌سایت پیدا کرده و داده مرتبط با آن را استخراج کنیم.

در این بخش، با استفاده از متدهای Beautiful Soup، مراحل پیدا کردن المان هدف و گرفتن اطلاعات آن به صورت عملی آموزش داده می‌شود. این قسمت به شما کمک می‌کند تا به‌طور مستقیم داده‌های مدنظرتان را از صفحات وب استخراج کنید و مهارت‌های Web Scraping خود را تقویت کنید.

استخراج کل متن داخل یک المان بزرگ

locked

۰۶:۳۷

مشاهده+

در قسمت هفتم فصل دوم از دوره "Web Scraping و Automation با Python"، یاد می‌گیریم که چگونه متن یک المان بزرگ که شامل چندین المان کوچک‌تر است را استخراج کنیم. سپس، این متن را به یک لیست تبدیل می‌کنیم که حاوی متن تمام المان‌های داخلی آن باشد.

این بخش به شما نشان می‌دهد که چطور با استفاده از Beautiful Soup داده‌های پیچیده‌تر را پردازش و ساختاردهی کنید. این مهارت برای پروژه‌هایی که نیاز به استخراج و دسته‌بندی اطلاعات از صفحات وب دارند بسیار کاربردی است.

استخراج داده از المان هایی با خصوصیت مشابه - قسمت اول

locked

۰۶:۱۷

مشاهده+

در قسمت هشتم فصل دوم از دوره "Web Scraping و Automation با Python"، با متد find_all در کتابخانه Beautiful Soup آشنا می‌شویم. این متد قدرتمند به شما امکان می‌دهد تا تمامی المان‌هایی که یک ویژگی یا خصوصیت مشترک دارند را شناسایی و استخراج کنید.

در این بخش، یاد می‌گیرید چگونه با استفاده از ویژگی‌هایی مانند تگ‌ها، کلاس‌ها و IDها، گروهی از المان‌های مشابه را پیدا کرده و داده‌های آن‌ها را به‌طور هم‌زمان استخراج کنید. این آموزش یک گام مهم برای کار با داده‌های تکراری و ساختارمند در صفحات وب است.

استخراج داده از المان هایی با خصوصیت مشابه - قسمت دوم

locked

۱۱:۲۲

مشاهده+

در قسمت نهم فصل دوم از دوره "Web Scraping و Automation با Python"، به ادامه آموزش متد find_all می‌پردازیم. در این بخش، با استفاده از یک مثال جدید، روش‌های مختلف استفاده از این متد را برای پیدا کردن و استخراج گروهی از المان‌های مشابه بررسی می‌کنیم.

این تمرین عملی به شما کمک می‌کند تا درک عمیق‌تری از متد find_all پیدا کرده و مهارت خود را در کار با داده‌های تکراری و ساختارمند در صفحات وب تقویت کنید.

نحوه ذخیره سازی داده جمع آوری شده در قالب یک فایل TXT

locked

۰۵:۳۱

مشاهده+

در قسمت دهم فصل دوم از دوره "Web Scraping و Automation با Python"، یاد می‌گیریم که چگونه داده‌هایی که در قسمت قبل جمع‌آوری کرده‌ایم را در قالب یک فایل TXT ذخیره کنیم.

در این بخش، با استفاده از توابع ورودی و خروجی فایل در Python، نحوه ذخیره‌سازی داده‌ها به صورت متنی را آموزش می‌دهیم. این فرآیند به شما کمک می‌کند تا اطلاعات جمع‌آوری شده را به‌راحتی نگهداری کنید و در پروژه‌های بعدی از آن‌ها استفاده کنید. این مهارت برای مدیریت داده‌های استخراج شده و ذخیره‌سازی آن‌ها در قالب‌های ساده بسیار مفید است.

نحوه ذخیره سازی داده جمع آوری شده به کمک کتابخانه Pandas

locked

۰۸:۳۰

مشاهده+

در قسمت یازدهم فصل دوم از دوره "Web Scraping و Automation با Python"، با نحوه ذخیره و سازماندهی داده‌ها در قالب فایل CSV به کمک کتابخانه Pandas به صورت حرفه ای آشنا می شویم.

در این بخش، با مفهوم DataFrame در Pandas آشنا می‌شوید و یاد می‌گیرید چگونه داده‌ها را به راحتی در فایل‌های CSV ذخیره کنید. این آموزش به شما این امکان را می‌دهد که داده‌های استخراج شده را در قالبی مرتب و ساختارمند ذخیره کرده و برای پردازش‌های بعدی در دسترس داشته باشید.

نحوه پیاده سازی pagination و استخراج داده از چندین صفحه در ربات

locked

۰۷:۲۰

مشاهده+

در قسمت دوازدهم فصل دوم از دوره "Web Scraping و Automation با Python"، با مفهوم Pagination و نحوه استخراج داده‌ها از چندین صفحه آشنا می‌شویم.

در این بخش، یاد می‌گیریم که چگونه داده‌ها را از صفحات مختلف یک وب‌سایت که به وسیله سیستم pagination تقسیم‌بندی شده‌اند، استخراج کنیم. این آموزش به شما کمک می‌کند تا به‌طور مؤثر و خودکار داده‌ها را از صفحات مختلف جمع‌آوری کرده و اطلاعات کاملی از سایت‌های دارای چندین صفحه دریافت کنید.

نحوه پیاده سازی Exception Handling برای جلوگیری از وقوع خطا و صرفه جویی در زمان

locked

۱۶:۴۶

مشاهده+

در قسمت سیزدهم فصل دوم از دوره "Web Scraping و Automation با Python"، به بهبود کدهای Web Scraping با استفاده از Exception Handling پرداخته می‌شود. در این بخش، یاد می‌گیرید چگونه کدی که برای استخراج داده‌ها از صفحات مختلف نوشته‌اید را بهینه کنید تا در صورت برخورد با صفحه‌ای که داده‌ای در آن وجود ندارد، به‌طور خودکار از حلقه خارج شود و از وقوع خطا جلوگیری کنید.

این آموزش به شما کمک می‌کند تا ربات‌های خود را مقاوم‌تر و کاراتر بسازید و از مشکلاتی مانند شکست در فرآیند استخراج داده‌ها جلوگیری کنید. با یادگیری مفهوم Exception Handling، قادر خواهید بود کدهای خود را به گونه‌ای طراحی کنید که در برابر شرایط غیرمنتظره و خطاها مقاوم باشد.

فصل ۳: آشنایی و کار با XPath

آشنایی با XPath و نحوه نوشتن کدهای XPath

locked

۱۲:۴۹

مشاهده+

در قسمت اول فصل سوم از دوره "Web Scraping و Automation با Python"، با XPath به طور کامل آشنا می‌شویم و نحوه نوشتن کدهای XPath برای پیدا کردن المان‌های صفحات وب را آموزش می‌دهیم. XPath یک زبان قوی برای انتخاب المان‌ها از XML یا HTML است و یکی از ابزارهای اساسی در Web Scraping به حساب می‌آید.

در این بخش، یاد می‌گیرید چگونه با استفاده از XPath، المان‌های دلخواه خود را در صفحات وب پیدا کرده و داده‌ها را از آن‌ها استخراج کنید. این مهارت به شما کمک می‌کند تا در پروژه‌های Web Scraping پیچیده‌تر، داده‌ها را دقیق‌تر و مؤثرتر جمع‌آوری کنید.

این فصل به عنوان یک پیش‌نیاز ضروری برای فصل بعد که به آموزش Selenium اختصاص دارد، عمل می‌کند. یادگیری XPath به شما کمک می‌کند تا در Automating Web Interaction با Selenium عملکرد بهتری داشته باشید.

استفاده عملی از XPath برای پیدا کردن المان‌ها در وبسایت‌ها

locked

۱۰:۱۱

مشاهده+

در قسمت دوم فصل سوم از دوره "Web Scraping و Automation با Python"، با استفاده از دانش تئوری که در قسمت قبل به دست آوردیم، به صورت عملی به نوشتن کدهای XPath پرداخته و المان‌های مختلف را در صفحات وب پیدا می‌کنیم.

در این بخش، یاد می‌گیریم چگونه از XPath در عمل استفاده کنیم تا المان‌های دلخواه مانند دکمه‌ها، لینک‌ها، تصاویر و سایر عناصر موجود در صفحه را شناسایی کنیم. این تمرین های عملی به شما این امکان را می‌دهند که با نحوه کارکرد دقیق XPath در محیط واقعی آشنا شده و توانایی خود را در استفاده از آن برای استخراج داده‌ها افزایش دهید.

این آموزش به شما کمک می‌کند تا از XPath در پروژه‌های پیچیده‌تر Web Scraping و Automating صفحات وب استفاده کنید و به‌طور مؤثر داده‌ها را استخراج کنید.

فصل ۴: آموزش کار با کتابخانه Selenium

مقدمه‌ای بر Selenium و کاربردهای آن

locked

۰۳:۲۹

مشاهده+

در قسمت اول فصل چهارم از دوره "Web Scraping و Automation با Python"، با Selenium آشنا می‌شویم و به کاربردهای آن در پروژه‌های Web Scraping و اتوماسیون وب می‌پردازیم.

Selenium یکی از قدرتمندترین ابزارها برای تعامل با صفحات وب است که به شما امکان می‌دهد مانند یک کاربر واقعی با مرورگرها تعامل داشته باشید. در این بخش، یاد می‌گیریم چرا Selenium برای کارهایی مانند پر کردن فرم‌ها، کلیک روی دکمه‌ها، اسکرول کردن صفحه و موارد مشابه بسیار مناسب است.

این قسمت مقدمه‌ای است برای درک قابلیت‌های این ابزار و آماده‌سازی شما برای نوشتن ربات‌های پیشرفته که می‌توانند با صفحات وب به طور کامل تعامل داشته باشند.

نصب کتابخانه Selenium و درایورهای مرورگر

locked

۰۴:۵۱

مشاهده+

در قسمت دوم فصل چهارم از دوره "Web Scraping و Automation با Python"، نحوه نصب کتابخانه Selenium و همچنین درایورهای مرورگر فایرفاکس و کروم را آموزش می‌دهیم.

در این بخش، با مراحل گام‌به‌گام نصب Selenium آشنا شده و یاد می‌گیریم چگونه درایورهای مربوط به مرورگرهای مختلف مانند Geckodriver (فایرفاکس) و Chromedriver (کروم) را برای اجرای ربات‌ها آماده کنیم. این درایورها به Selenium اجازه می‌دهند که با مرورگرها ارتباط برقرار کرده و عملیات اتوماسیون را اجرا کند.

این آموزش پایه‌ای ضروری برای شروع کار با Selenium است و شما را آماده می‌کند تا در قسمت‌های بعدی ربات‌های قدرتمندی برای تعامل با صفحات وب بسازید.

Selenium یا Beautiful Soup؟ مسئله این است؟!

locked

۰۳:۰۲

مشاهده+

در قسمت سوم فصل چهارم از دوره "Web Scraping و Automation با Python"، به این سوال پاسخ می‌دهیم که چه زمانی باید از Selenium استفاده کنیم و چه زمانی از Beautiful Soup.

در این بخش، یاد می‌گیریم چگونه تشخیص دهیم که داده‌های موردنظر ما در یک وبسایت با JavaScript هندل می‌شوند یا به‌صورت استاتیک در HTML قابل دسترسی هستند. با استفاده از کنسول مرورگر و ابزارهای توسعه‌دهنده، این بررسی را انجام می‌دهیم و تعیین می‌کنیم که کدام ابزار برای پروژه ما مناسب‌تر است.

این قسمت به شما کمک می‌کند تا در زمان مناسب از ابزار درست استفاده کنید و در پروژه‌های Web Scraping بهینه‌تر عمل کنید.

نوشتن اولین ربات با Selenium

locked

۰۵:۴۴

مشاهده+

در قسمت چهارم فصل چهارم از دوره "Web Scraping و Automation با Python"، اولین ربات خود را با استفاده از Selenium می‌نویسیم.

در این بخش، یاد می‌گیریم چگونه یک صفحه وب را با مرورگر باز کرده و پس از یک وقفه کوتاه، آن را ببندیم. این تمرین ساده، اولین قدم برای آشنایی با نحوه کنترل مرورگرها و اجرای دستورات اتوماسیون است.

این آموزش به شما کمک می‌کند تا با اصول پایه کار با Selenium آشنا شده و برای پروژه‌های پیچیده‌تر آماده شوید.

نصب افزونه Jupyter Notebook در VS Code

locked

۰۶:۰۵

مشاهده+

در قسمت پنجم فصل چهارم از دوره "Web Scraping و Automation با Python"، به توضیح دلایل استفاده از Jupyter Notebook در پروژه‌های Selenium می‌پردازیم و نحوه نصب افزونه Jupyter Notebook روی Visual Studio Code را آموزش می‌دهیم.

این ابزار به ما امکان می‌دهد تا ربات‌های Selenium را به صورت مرحله‌به‌مرحله بنویسیم و هر بخش از کد را به صورت جداگانه تست کنیم. استفاده از این روش باعث می‌شود تا کدنویسی ما سریع‌تر و خطایابی آسان‌تر انجام شود.

این بخش یکی از کلیدی‌ترین قسمت‌های دوره است که شما را برای نوشتن ربات‌های پیچیده‌تر و دقیق‌تر آماده می‌کند.

آموزش پیدا کردن یک المان مشخص در Selenium

locked

۱۱:۱۴

مشاهده+

در قسمت ششم فصل چهارم از دوره "Web Scraping و Automation با Python"، با روش استفاده از متد find_element در Selenium آشنا می‌شویم.

در این بخش، از کلاس By استفاده می‌کنیم تا المان‌های مختلف یک صفحه وب را برای ربات شناسایی کنیم. این متد به ما کمک می‌کند تا به‌راحتی به المان‌های موردنظر دسترسی پیدا کرده و عملیات‌های مختلفی روی آن‌ها انجام دهیم.

این آموزش یکی از بخش‌های مهم برای ساخت ربات‌هایی است که بتوانند به‌طور دقیق با صفحات وب تعامل داشته باشند.

آموزش پیدا کردن المان های با خصوصیت یکسان در Selenium

locked

۰۶:۲۷

مشاهده+

در قسمت هفتم فصل چهارم از دوره "Web Scraping و Automation با Python"، با متد find_elements در Selenium آشنا می‌شویم.

این متد به ما امکان می‌دهد تا تمامی المان‌هایی که خصوصیات مشابهی دارند را به‌صورت یک لیست پیدا کنیم. این ویژگی برای مواقعی که نیاز به استخراج چندین المان مشابه از یک صفحه داریم (مانند لیست محصولات یا لینک‌ها) بسیار کاربردی است.

این آموزش ابزار مهمی را برای اجرای ربات‌های پیشرفته‌تر و دقیق‌تر در اختیار شما قرار می‌دهد.

اضافه کردن قابلیت Pagination به ربات و کلیک روی المان های صفحه

locked

۰۶:۳۸

مشاهده+

در قسمت هشتم فصل چهارم از دوره "Web Scraping و Automation با Python"، یاد می‌گیریم چگونه قابلیت Pagination را به ربات خود اضافه کنیم.

در این بخش، از متد click() در Selenium استفاده می‌کنیم تا ربات بتواند روی المان‌های صفحه (مانند دکمه "صفحه بعد") کلیک کند و داده‌ها را از چندین صفحه به‌صورت متوالی جمع‌آوری کند.

این آموزش برای پروژه‌هایی که نیاز به جمع‌آوری داده از چندین صفحه وب دارند، بسیار کاربردی است و به شما کمک می‌کند تا ربات‌های حرفه‌ای‌تر بسازید.

آشنایی با کلاس Select در Selenium

locked

۳۸:۴۴

مشاهده+

در قسمت نهم فصل چهارم از دوره "Web Scraping و Automation با Python"، با کلاس Select در Selenium آشنا می‌شویم.

این کلاس به ما امکان می‌دهد تا به‌راحتی با تگ‌های Select در صفحات وب (مانند منوهای کشویی) تعامل داشته باشیم. در این بخش یاد می‌گیریم چگونه گزینه‌های موجود در یک Dropdown را انتخاب کنیم و داده‌ها را بر اساس آن استخراج کنیم.

این آموزش برای مواقعی که نیاز به کار با فرم‌ها یا فیلترهای وبسایت دارید، بسیار مفید خواهد بود.

بهبود ربات و مدیریت خطاها در Selenium

locked

۰۴:۵۷

مشاهده+

در قسمت دهم فصل چهارم از دوره "Web Scraping و Automation با Python"، به بهبود ربات نوشته‌شده در قسمت قبلی می‌پردازیم.

در این بخش یاد می‌گیریم چگونه با استفاده از تکنیک‌های مختلف، خطاهای احتمالی ربات را شناسایی و مدیریت کنیم. این مرحله برای افزایش پایداری و عملکرد ربات در هنگام اجرای عملیات‌های پیچیده در صفحات وب، بسیار حیاتی است.

این آموزش به شما کمک می‌کند رباتی بسازید که در شرایط مختلف، قابل‌اعتماد و بدون خطا عمل کند.

آشنایی با انواع Wait در Selenium

locked

۱۶:۳۳

مشاهده+

در قسمت یازدهم فصل چهارم از دوره "Web Scraping و Automation با Python"، با انواع Wait در Selenium آشنا می‌شویم.

در این بخش، به‌طور تئوری و با استفاده از مثال‌های تصویری، یاد می‌گیریم که چگونه از Explicit Wait و Implicit Wait استفاده کنیم تا ربات بتواند با زمان‌بندی مناسب، صبر کند تا المان‌ها به طور کامل بارگذاری شوند و از خطاهای مرتبط با تأخیر در بارگذاری صفحات جلوگیری کنیم.

این آموزش برای بهبود عملکرد ربات‌ها در زمان‌هایی که با بارگذاری تدریجی داده‌ها و محتواهای جاوا اسکریپت مواجه می‌شویم، ضروری است.

بهبود ربات با استفاده از Wait در Selenium

locked

۱۵:۲۴

مشاهده+

در قسمت دوازدهم فصل چهارم از دوره "Web Scraping و Automation با Python"، یاد می‌گیریم چگونه از مفهوم Wait که در قسمت‌های قبلی آموزش داده شده است، برای بهبود عملکرد ربات‌های خود استفاده کنیم.

در این بخش، رباتی که در قسمت‌های قبل نوشته‌ایم را با استفاده از Explicit Wait و Implicit Wait بهینه‌سازی می‌کنیم تا به طور موثرتر و با دقت بالاتر داده‌های مد نظر را از صفحات وب استخراج کند. این ربات قادر خواهد بود که با یک بار اجرا، کل داده‌های مورد نیاز را به صورت کامل جمع‌آوری کند بدون اینکه دچار خطاهای معمولی مثل Timeout یا ElementNotFound شود.

این قسمت برای کسانی که می‌خواهند ربات‌های خود را بهینه‌سازی و عملکرد آن‌ها را ارتقا دهند، بسیار مفید است.

اجرای کدهای JavaScript در ربات با Selenium

locked

۱۶:۲۹

مشاهده+

در قسمت سیزدهم فصل چهارم از دوره "Web Scraping و Automation با Python"، یاد می‌گیریم چگونه می‌توانیم کدهای JavaScript را در ربات‌های خود اجرا کنیم.

در این بخش، به کمک Selenium و قابلیت‌های آن، به شما آموزش می‌دهیم که چگونه کدهای جاوا اسکریپت را مستقیماً در مرورگر اجرا کنید تا بتوانید تعامل بیشتری با صفحات وب داشته باشید. این ویژگی مخصوصاً زمانی کاربرد دارد که نیاز به انجام عملیات پیچیده‌تری مانند شبیه‌سازی رویدادهای جاوا اسکریپت یا دسترسی به داده‌هایی که از طریق JavaScript بارگذاری می‌شوند، دارید.

این آموزش برای کسانی که می‌خواهند از پتانسیل کامل Selenium برای اتوماسیون پیشرفته و تعامل با صفحات وب استفاده کنند، بسیار مفید است.

استفاده از متد send_keys برای پر کردن فرم‌ها در Selenium

۲۰:۱۶

مشاهده+

در قسمت چهاردهم فصل چهارم از دوره "Web Scraping و Automation با Python"، با متد send_keys آشنا می‌شویم و یاد می‌گیریم چگونه از آن برای پر کردن فرم‌ها در صفحات وب استفاده کنیم.

این متد یکی از ابزارهای کلیدی در Selenium است که به ما امکان می‌دهد تا به راحتی داده‌ها را در فیلدهای فرم وارد کنیم، دقیقا مشابه به اینکه کاربر آن‌ها را به صورت دستی تایپ کند. در این بخش، ما با جزئیات تمام، نحوه استفاده از send_keys برای تکمیل فرم‌ها، ورود متن به فیلدهای مختلف و تعامل با سایت‌هایی که نیاز به ارسال داده دارند را یاد خواهیم گرفت.

این آموزش برای کسانی که قصد دارند اتوماسیون پر کردن فرم‌ها یا هر نوع تعامل مشابه را در ربات‌های خود پیاده‌سازی کنند، بسیار مفید و کاربردی است.

استفاده پیشرفته از متد send_keys و کلاس Keys برای ارسال کلیدهای خاص در Selenium

locked

۰۵:۵۰

مشاهده+

در قسمت پانزدهم فصل چهارم از دوره "Web Scraping و Automation با Python"، به استفاده پیشرفته‌تر از متد send_keys و کلاس Keys می‌پردازیم. در این قسمت، یاد می‌گیریم چگونه می‌توانیم کلیدهای خاص مثل Enter، Space، Tab و دیگر کلیدهای پر تکرار را به فرم‌ها ارسال کنیم.

کلاس Keys در Selenium به ما این امکان را می‌دهد که بتوانیم دقیقاً مانند یک کاربر، کلیدهای خاصی را که معمولاً در فرم‌ها استفاده می‌شوند، شبیه‌سازی کنیم. به عنوان مثال، شما می‌توانید با استفاده از Keys.ENTER به طور خودکار فیلد را ارسال کنید یا با Keys.SPACE فضای خالی وارد کنید. این کار نه تنها به راحتی در تکمیل فرم‌ها کمک می‌کند بلکه برای انجام کارهای پیچیده‌تری مانند شبیه‌سازی حرکات کاربر نیز کاربرد دارد.

این قسمت از دوره برای کسانی که می‌خواهند تجربه‌ای کامل از اتوماسیون پر کردن فرم‌ها و تعامل با فرم‌ها در صفحات وب داشته باشند، بسیار ضروری است.

بهبود ربات و استفاده از کدهای JS در Selenium

locked

۰۸:۳۳

مشاهده+

در قسمت شانزدهم فصل چهارم از دوره "Web Scraping و Automation با Python"، به بهبود رباتی که قبلاً نوشتیم می‌پردازیم و همچنین با یک کد JS جدید آشنا می‌شویم که می‌توانیم در Selenium استفاده کنیم.

در این قسمت از دوره، ابتدا ربات خود را با اعمال تغییرات و بهبودهایی مانند رفع اشکالات و بهینه‌سازی عملکرد تکمیل می‌کنیم. یکی از اصلی‌ترین مواردی که به آن پرداخته می‌شود، بهبود قابلیت تعامل با صفحات داینامیک است تا ربات به راحتی قادر به شبیه‌سازی رفتار انسان در سایت‌های مختلف باشد.

علاوه بر این، به شما نشان خواهیم داد که چگونه می‌توانید از کدهای JavaScript داخل ربات‌های Selenium خود استفاده کنید. این ویژگی به خصوص زمانی که با مشکلاتی مانند بارگذاری صفحات به صورت داینامیک مواجه می‌شویم بسیار مفید است. از طریق اجرای کدهای JS می‌توانیم عملکرد ربات را بهبود دهیم و کنترل بیشتری روی تعاملات با صفحه داشته باشیم.

این قسمت برای کسانی که می‌خواهند ربات‌های پیچیده‌تر و هوشمندتری بسازند و از JavaScript در کدنویسی خود بهره‌مند شوند، ضروری است.

استفاده از حالت Headless Mode در Selenium

locked

۰۶:۱۸

مشاهده+

در قسمت هفدهم فصل چهارم از دوره "Web Scraping و Automation با Python"، به آموزش استفاده از حالت Headless Mode در ربات‌های Selenium پرداخته می‌شود. این بخش یکی از مراحل مهم و کاربردی برای بهبود ربات‌ها است که به شما کمک می‌کند ربات‌هایتان را به صورت headless اجرا کنید.

Headless Mode به این معنی است که ربات شما بدون باز کردن یک پنجره مرورگر گرافیکی و فقط در پس‌زمینه عمل می‌کند. این ویژگی مزایای زیادی دارد، از جمله:

افزایش سرعت اجرا: ربات‌ها بدون نیاز به بارگذاری رابط کاربری (UI) مرورگر سریع‌تر اجرا می‌شوند.
کاهش مصرف منابع سیستم: چون ربات در پس‌زمینه اجرا می‌شود و نیازی به نمایش گرافیکی صفحه نیست، منابع کمتری مصرف می‌شود.
مناسب برای محیط‌های سرور: بسیاری از سرورهای اینترنتی و محیط‌های بدون رابط گرافیکی از این حالت برای اجرای ربات‌ها استفاده می‌کنند.
در این قسمت از دوره، شما یاد خواهید گرفت که چطور با اضافه کردن چند خط کد ساده به ربات خود، حالت Headless Mode را فعال کنید و رباتتان را به صورت غیر گرافیکی و بهینه‌شده اجرا کنید. این ویژگی مخصوصاً زمانی که نیاز به اجرا در محیط‌های مختلف یا در سرورهای بدون رابط کاربری گرافیکی دارید بسیار مفید است.

این قسمت به شما این امکان را می‌دهد که ربات‌های خود را سریع‌تر و کارآمدتر از قبل اجرا کنید و در نهایت باعث بهبود عملکرد کلی پروژه‌های Web Scraping شما می‌شود.

بهبود ربات با قابلیت‌های اضافی برای عبور از محدودیت‌های Headless Mode

locked

۰۷:۰۰

مشاهده+

در قسمت هجدهم فصل چهارم از دوره "Web Scraping و Automation با Python"، به آموزش بهبود ربات‌ها با افزودن قابلیت‌هایی مانند User-Agent پرداخته می‌شود تا از محدودیت‌های سایت‌هایی که پشتیبانی از حالت Headless Mode را مسدود می‌کنند، عبور کنیم.

گاهی اوقات وب‌سایت‌ها ممکن است به دلیل استفاده از Headless Mode، که در آن مرورگر به صورت غیر گرافیکی اجرا می‌شود، شناسایی شوند و به این ترتیب دسترسی به آن‌ها مسدود شود. یکی از راه‌های عبور از این محدودیت‌ها استفاده از User-Agent است که می‌تواند باعث شود ربات شما مانند یک کاربر واقعی به نظر برسد و از شناسایی به عنوان یک ربات خودداری کند.

در این قسمت از دوره، شما یاد خواهید گرفت که چطور با افزودن User-Agent به ربات‌های خود، از این محدودیت‌ها عبور کنید و ربات‌ها را طوری تنظیم کنید که رفتارشان مانند یک کاربر معمولی و واقعی به نظر برسد. با این کار، سایت‌ها تشخیص نمی‌دهند که شما در حال استفاده از حالت Headless Mode هستید و دسترسی شما به داده‌ها مسدود نخواهد شد.

این آموزش شامل موارد زیر می‌شود:

آموزش تغییر User-Agent در ربات‌های Selenium برای ایجاد شبیه‌سازی بهتر از رفتار کاربران واقعی.
افزایش قدرت پنهان‌کاری ربات‌ها برای عبور از فیلترهای امنیتی سایت‌ها.
بهبود توانایی ربات‌ها برای انجام Web Scraping از سایت‌هایی که حساس به Headless Mode هستند.
این قسمت از دوره به شما این امکان را می‌دهد که ربات‌های خود را مخفیانه و بدون مشکل از سایت‌ها داده جمع‌آوری کنید و محدودیت‌های موجود را دور بزنید.

فصل ۵: پروژه و صحبت های پایانی

پروژه نهایی دوره

locked

۰۲:۵۷

مشاهده+

در قسمت اول فصل ۵ از دوره "Web Scraping و Automation با Python"، به پروژه نهایی دوره پرداخته می‌شود که به شما این امکان را می‌دهد تا تمام مفاهیم و مهارت‌هایی که در طول دوره آموخته‌اید را به صورت عملی پیاده‌سازی کنید.

این پروژه به شما کمک می‌کند تا دانش خود را در زمینه Web Scraping و Automation با استفاده از Python تقویت کنید و درک بهتری از چگونگی نوشتن ربات‌های کاربردی برای استخراج داده از وب‌سایت‌ها پیدا کنید. در این پروژه نهایی، شما با استفاده از کتابخانه‌های BeautifulSoup و Selenium باید یک فرم Google Form را به صورت خودکار تکمیل کنید.

جزئیات پروژه نهایی:
باز کردن صفحه فرم: اولین مرحله پروژه شامل باز کردن صفحه Google Form با استفاده از ربات است.
گرفتن عکس از صفحه قبل از تکمیل فرم: ربات باید از صفحه فرم قبل از تکمیل آن تصویر بگیرد.
پر کردن فرم: ربات باید تمام فیلدهای فرم را به صورت خودکار پر کند.
گرفتن عکس از صفحه بعد از تکمیل فرم: پس از تکمیل فرم، ربات باید از صفحه جدیدی که پس از تکمیل نمایش داده می‌شود، عکسی بگیرد.
Submit کردن فرم (اختیاری): در مرحله نهایی، ربات می‌تواند فرم را به طور خودکار ارسال کند، اما این مرحله به دلخواه شما است.
این پروژه برای هرکسی که می‌خواهد تجربه عملی از Web Scraping و Automation به دست آورد، بسیار مفید است. با تکمیل این پروژه نهایی، شما قادر خواهید بود تا ربات‌های پیچیده‌تری بسازید که می‌توانند کارهای متنوعی را در وب به صورت خودکار انجام دهند.

نحوه انجام پروژه:
در این قسمت، یک فایل Jupyter Notebook که مشابه یک TODO لیست است در اختیار شما قرار داده می‌شود تا هر مرحله از کدنویسی ربات را با دقت پیش ببرید. این فایل تمام مراحل را به طور واضح و گام به گام شرح داده تا بتوانید ربات خود را به درستی بسازید. بعد از نوشتن کدها، شما باید ربات خود را چندین بار تست کنید تا از عملکرد صحیح آن اطمینان حاصل کنید.

در نهایت، پس از تکمیل کدها و تست‌های لازم، باید فایل نهایی خود را ارسال کنید تا توسط مربی بررسی و نتایج آن به شما اعلام شود.

با پایان این پروژه نهایی، شما به یک توسعه‌دهنده متخصص در زمینه Web Scraping و Automation با Python تبدیل خواهید شد و قادر خواهید بود پروژه‌های واقعی را به طور حرفه‌ای انجام دهید.

چرا پروژه نهایی اهمیت دارد؟
این پروژه به شما این امکان را می‌دهد تا تمام اطلاعات آموخته‌شده را در عمل پیاده‌سازی کنید.
یک تجربه عملی از Web Scraping و Automation به شما می‌دهد.
به شما کمک می‌کند تا در دنیای واقعی به چالش‌های اتوماتیک کردن جمع‌آوری داده‌ها پاسخ دهید.
این قسمت از دوره به شما مهارت‌های عملی و تکنیک‌های لازم برای انجام پروژه‌های مشابه در دنیای واقعی را می‌آموزد و می‌تواند شما را به یک کارشناس فنی در زمینه پایتون، Web Scraping و Automation تبدیل کند.

کلام آخر و نقشه راه بعد از دوره

locked

۰۲:۱۳

مشاهده+

در قسمت پایانی دوره "Web Scraping و Automation using Python"، ما به جمع‌بندی مطالب دوره می‌پردازیم و نقشه راه برای ادامه مسیر یادگیری شما را معرفی می‌کنیم. این قسمت از دوره به شما کمک می‌کند تا بر اساس دانش و مهارت‌هایی که در طول دوره به دست آورده‌اید، گام‌های بعدی خود را به درستی بردارید و در مسیر توسعه‌دهنده وب و متخصص Web Scraping قرار بگیرید.

کلام آخر:
ما در این دوره به شما اصول اولیه و پیشرفته Web Scraping و Automation با پایتون را آموختیم. از کتابخانه‌های BeautifulSoup و Selenium استفاده کردیم و تکنیک‌های پیچیده‌ای مانند Pagination, Handling Errors, Headless Mode, و Interacting with Forms را یاد گرفتیم. با تمرین‌های عملی و پروژه‌های مختلف، شما اکنون قادر هستید که داده‌ها را از وبسایت‌های مختلف استخراج کرده و فرآیندهای خودکار را برای انجام کارهای تکراری پیاده‌سازی کنید.

این دوره برای کسانی طراحی شده است که علاقه دارند کار با داده‌ها و اتوماسیون را یاد بگیرند. Web Scraping یک مهارت بسیار ارزشمند در دنیای امروز است که در زمینه‌هایی مانند تحلیل داده‌ها, بازاریابی دیجیتال, تحقیق بازار, جمع‌آوری اطلاعات و بسیاری دیگر مورد استفاده قرار می‌گیرد. ما اطمینان داریم که این دوره به شما کمک کرده است تا پایه‌های محکمی برای استفاده از پایتون در این زمینه‌ها ایجاد کنید.

نقشه راه بعد از دوره:
اکنون که این دوره را با موفقیت پشت سر گذاشته‌اید، پیشنهاد می‌کنیم که مراحل زیر را برای پیشرفت بیشتر در Web Scraping و Automation دنبال کنید:

تمرین و تسلط بیشتر بر پروژه‌ها:
با استفاده از کدهایی که نوشتید، پروژه‌های مختلف جدیدی را ایجاد کنید. سعی کنید داده‌های جدید از وبسایت‌های متفاوت استخراج کنید و از Selenium برای تعامل با صفحات داینامیک استفاده کنید.
یادگیری تکنیک‌های پیشرفته‌تر:
بعد از این دوره، یادگیری کار با APIها, Data Analysis با Pandas, و مفاهیم پیشرفته‌تر XPath و CSS Selectors را شروع کنید. این‌ها ابزارهایی هستند که به شما در استخراج داده‌ها و تجزیه و تحلیل آنها کمک خواهند کرد.
کدنویسی با فریم ورک‌های مختلف:
بعد از آشنایی با BeautifulSoup و Selenium، به یادگیری فریم‌ورک‌های دیگری مثل Scrapy بپردازید که برای انجام Web Scraping به صورت حرفه‌ای و مقیاس‌پذیر استفاده می‌شوند.
آشنایی با ابزارهای اتوماسیون دیگر:
به علاوه Selenium، ابزارهایی مانند Playwright و Puppeteer را نیز بررسی کنید که برای اتوماسیون و استخراج داده‌ها از وب استفاده می‌شوند.
ایجاد پروژه‌های واقعی و کاربردی:
به کمک مهارت‌هایی که در این دوره آموخته‌اید، پروژه‌های تحلیل داده‌ها, جمع‌آوری اطلاعات برای تحقیقات بازار, و اتوماسیون پروسه‌ها را شروع کنید. این پروژه‌ها می‌توانند به شما در ساخت نمونه‌کارهای قوی کمک کرده و در فرصت‌های شغلی جدید به شما مزیت دهند.
به روز رسانی دانش خود:
با توجه به تغییرات سریع در فناوری‌ها و تکنیک‌های Web Scraping و Automated Testing, همواره خود را به‌روز نگه دارید. مطالعه منابع آنلاین، مقالات، و شرکت در دوره‌های تخصصی می‌تواند به شما کمک کند تا مهارت‌های خود را به سطح بعدی ارتقاء دهید.
نکات کلیدی:
با یادگیری Web Scraping می‌توانید داده‌های مورد نیاز خود را از منابع مختلف استخراج کنید.
Automating tasks می‌تواند به شما در افزایش بهره‌وری و انجام کارهای تکراری کمک کند.
Python به عنوان زبان برنامه‌نویسی اصلی در این دوره، ابزار قدرتمندی برای انجام هر دو کار Web Scraping و Automation است.
در نهایت، موفقیت شما بستگی به میزان تمرین، پروژه‌های عملی و پژوهش بیشتر دارد. همواره در حال یادگیری باشید و به پیشرفت خود ادامه دهید.

با پایان این دوره، شما آماده‌اید تا در دنیای Web Scraping و Automation قدم بردارید و پروژه‌های پیچیده‌تری را به طور حرفه‌ای انجام دهید.
ما خوشحالیم که شما در این دوره همراه ما بودید و منتظر شنیدن داستان‌های موفقیت شما در مسیر یادگیری و کار با پایتون و وب اسکرپینگ هستیم!

پیش نیازها:

آیا برای شروع این دوره نیاز به دانش قبلی داریم؟

پاسخ کوتاه این است: خیر!
این دوره به گونه‌ای طراحی شده که برای افراد مبتدی و حتی کسانی که تا به حال هیچ تجربه‌ای در زمینه وب اسکریپینگ یا اتوماسیون نداشته‌اند نیز مناسب باشد.

با این حال، داشتن دانش اولیه در زمینه‌های زیر می‌تواند یادگیری شما را سرعت ببخشد:

  1. آشنایی با زبان پایتون:

    اگرچه مباحث کدنویسی و کار با پایتون به صورت ساده در طول دوره آموزش داده می‌شوند، اما آشنایی اولیه با مفاهیمی مثل متغیرها، توابع و حلقه‌ها می‌تواند کمک‌کننده باشد.

    • اگر تجربه‌ای در کار با پایتون ندارید، پیشنهاد می‌کنیم ابتدا مباحث پایه‌ای پایتون را یاد بگیرید.

    • می‌توانید از دوره‌های مقدماتی یا منابع رایگان استفاده کنید.

  2. دانش پایه HTML:

    از آنجایی که در وب اسکریپینگ، داده‌ها را از صفحات وب استخراج می‌کنیم، شناخت ساختارهای HTML ضروری است.

    • نگران نباشید؛ در این دوره، بخش‌هایی از HTML که مورد نیاز هستند، به شما آموزش داده می‌شوند.

    • اما اگر قبلاً با این زبان‌ها آشنا باشید، کار شما بسیار راحت‌تر خواهد بود.

  3. آشنایی با مرورگرها و وب‌سایت‌ها:

    آشنایی با نحوه عملکرد مرورگرها و ساختار صفحات وب (مانند DOM) می‌تواند به شما در درک بهتر مفاهیم کمک کند.

توضیحات:

اگر به دنبال یادگیری یک مهارت کاربردی و پول‌ساز در دنیای برنامه‌نویسی هستید، دوره آموزش Web Scraping و Automation با پایتون می‌تواند بهترین انتخاب برای شما باشد. این دوره توسط مجموعه سایبریونی طراحی و تهیه شده و به شما کمک می‌کند تا داده‌ها را به‌صورت خودکار از وب‌سایت‌ها جمع‌آوری کنید و با نوشتن ربات‌های پیشرفته، فرآیندهای دستی و وقت‌گیر را اتوماتیک کنید.

در این دوره، شما از مفاهیم اولیه تا پیاده‌سازی پروژه‌های واقعی را یاد می‌گیرید و با ابزارها و کتابخانه‌های قدرتمندی مانند Beautiful Soup و Selenium آشنا می‌شوید. اگر می‌خواهید وب اسکریپینگ را از صفر یاد بگیرید و به یک متخصص تبدیل شوید، این دوره مخصوص شماست!

چرا باید وب اسکریپینگ و اتوماسیون را یاد بگیریم؟

در دنیای دیجیتال امروز، دسترسی به داده‌ها و تحلیل آن‌ها اهمیت بسیار زیادی دارد. اما همیشه نمی‌توانیم داده‌ها را به شکل آماده و ساختاریافته از اینترنت دریافت کنیم. وب اسکریپینگ به شما این امکان را می‌دهد که با نوشتن ربات‌های پیشرفته، اطلاعات مورد نیاز خود را از سایت‌های مختلف استخراج کنید.

از طرف دیگر، یادگیری اتوماسیون با پایتون به شما کمک می‌کند تا کارهای تکراری و وقت‌گیر را به صورت خودکار انجام دهید. این مهارت‌ها می‌توانند در حوزه‌های مختلفی مثل تحلیل داده، تجارت الکترونیک، بازاریابی دیجیتال و حتی در زندگی روزمره بسیار کاربردی باشند.

ویژگی‌های این دوره:

  1. جامع و پروژه‌محور:

    • این دوره به‌صورت گام‌به‌گام طراحی شده و شما را از مفاهیم پایه تا پیاده‌سازی پروژه‌های واقعی همراهی می‌کند.

  2. استفاده از ابزارهای به‌روز:

    • در این دوره از ابزارهای قدرتمندی مثل Beautiful Soup و Selenium استفاده می‌کنیم. این ابزارها بهترین انتخاب‌ها برای انجام وب اسکریپینگ و اتوماسیون هستند.

  3. پشتیبانی کامل:

    • شما می‌توانید در طول دوره سوالات خود را از مدرس بپرسید و از بخش پرسش و پاسخ برای رفع مشکلات استفاده کنید.

  4. مناسب برای تمام سطوح:

    • چه تازه‌کار باشید و چه تجربه برنامه‌نویسی داشته باشید، این دوره برای شما مناسب است.

  5. گواهینامه معتبر:

    • در پایان دوره، پس از تکمیل پروژه نهایی، می‌توانید گواهینامه‌ای معتبر دریافت کنید و آن را به رزومه خود اضافه کنید.

سرفصل‌های دوره Web Scraping و Automation با پایتون:

  1. مقدمه و آشنایی با مفاهیم اولیه:

    • معرفی وب اسکریپینگ و کاربردهای آن

    • بررسی تفاوت بین وب‌سایت‌های استاتیک و داینامیک

  2. کار با Beautiful Soup:

    • استخراج داده‌ها از وب‌سایت‌های ساده

    • یادگیری نحوه استفاده از المان های HTML برای دسترسی به داده‌ها

  3. آشنایی با Selenium:

    • کار با مرورگرها و شبیه‌سازی رفتار کاربر

    • استخراج داده از وب‌سایت‌های داینامیک

  4. ساخت پروژه‌های واقعی:

    • طراحی ربات‌های مختلف برای جمع‌آوری داده و اتوماسیون

    • پروژه نهایی: تکمیل یک فرم گوگل به صورت خودکار با ربات پایتون

مزایای شرکت در دوره Web Scraping و Automation با Python:

1. کاربردی و پول‌ساز:

مهارت وب اسکریپینگ و اتوماسیون یکی از پرتقاضاترین مهارت‌ها در بازار کار است. شما می‌توانید با یادگیری این مهارت‌ها:

  • داده‌های مورد نیاز برای تحقیقات خود را به راحتی جمع‌آوری کنید.

  • به عنوان یک فریلنسر پروژه بگیرید و درآمد کسب کنید.

  • کارهای روزمره را اتوماتیک کنید و در زمان خود صرفه‌جویی کنید.

2. آموزش مبتنی بر پروژه:

در طول این دوره شما نه‌تنها مفاهیم را یاد می‌گیرید، بلکه آن‌ها را در قالب پروژه‌های واقعی پیاده‌سازی می‌کنید. این کار باعث می‌شود یادگیری شما عمیق‌تر شود و آمادگی بیشتری برای ورود به دنیای واقعی داشته باشید.

3. دسترسی دائمی به محتوا:

با شرکت در این دوره، شما به‌صورت دائمی به محتواهای آموزشی دسترسی خواهید داشت و می‌توانید هر زمان که نیاز داشتید به ویدیوها و مطالب دوره مراجعه کنید.

4. پشتیبانی و گواهینامه:

تیم سایبریونی در کنار شماست تا در طول دوره مشکلات خود را برطرف کنید. همچنین گواهینامه‌ای معتبر دریافت خواهید کرد که می‌تواند در رزومه یا پروفایل LinkedIn شما چشمگیر باشد.

این دوره برای چه کسانی مناسب است؟

  • کسانی که علاقه‌مند به جمع‌آوری داده و تحلیل آن هستند.

  • برنامه‌نویسانی که می‌خواهند مهارت‌های خود را در زمینه اتوماسیون تقویت کنند.

  • کسانی که به دنبال ورود به بازار کار و کسب درآمد از پروژه‌های فریلنسری هستند.

  • دانشجویانی که برای پایان‌نامه یا تحقیقات علمی به داده‌های خاص نیاز دارند.

پروژه نهایی دوره:

در پایان دوره، شما می‌توانید با انجام پروژه نهایی مهارت‌های خود را به چالش بکشید. این پروژه شامل طراحی یک ربات برای تکمیل خودکار یک فرم گوگل است. شما با انجام این پروژه می‌توانید مطمئن شوید که تمام مفاهیم دوره را به خوبی یاد گرفته‌اید و آن‌ها را در عمل پیاده‌سازی کنید.

پشتیبانی و ارتباط با مدرس:

یکی از نقاط قوت این دوره، پشتیبانی کامل آن است. شما می‌توانید سوالات خود را از مدرس دوره، بپرسید و مطمئن باشید که در مسیر یادگیری تنها نخواهید بود.

ثبت‌نام در دوره:

همین حالا به جمع دانشجویان این دوره بپیوندید و یادگیری یکی از پول‌سازترین مهارت‌های برنامه‌نویسی را آغاز کنید. فرقی نمی‌کند هدف شما جمع‌آوری داده باشد یا اتوماتیک کردن کارهای تکراری، این دوره شما را به مقصد می‌رساند.

برای ثبت‌نام و اطلاعات بیشتر، کافی است روی دکمه "ثبت نام در دوره" کلیک کنید و اولین قدم را برای یادگیری وب اسکریپینگ و اتوماسیون بردارید!

purpleribbon image
دوره آموزش وب اسکریپینگ و اتوماسیون با پایتون (Web Scraping & Automation using Python)

امتیاز دوره

◇◇◇◇◇

4.4

(۴.۴)

تعداد ثبت نام شده

۵

تعداد مشاهده شده

۸۴

قیمت:

۶۹۹,۰۰۰ تومان

مدرس دوره:

مهدی یعقوبی

مهدی یعقوبی

◇◇◇◇◇

5

(۵)

واقعاً خفن بود این دوره! خیلی وقت بود دنبال چیزی بودم که توش Selenium رو کامل توضیح بده. کاش مثال‌های فصل آخرش یه کم پیچیده‌تر بود که بیشتر چالش داشته باشیم.

حسام مهرپرور

◇◇◇◇◇

4

(۴)

دوره خوبیه، مخصوصاً برای کسایی که تازه می‌خوان شروع کنن. من از فصل BeautifulSoup خیلی استفاده کردم. فقط یه چند قسمت ویدیوها یه کم طولانی بودن، ولی محتواشون ارزشش رو داشت.

مهسا مومنی

◇◇◇◇◇

5

(۵)

دوره رو شروع کردم و تا الان همه چی عالی بوده. خیلی خوبه که کدها کامل توضیح داده می‌شن.

الهام روحانی

◇◇◇◇◇

4

(۴)

واقعا لذت بردم از دوره. چیزی که خیلی جذاب بود، رویکرد عملی و پروژه محورشه. فقط اگه برای بعضی قسمت‌ها، چک‌لیست مراحل کار رو هم می‌ذاشتین، راحت‌تر بود.

علی تقی پور

◇◇◇◇◇

4

(۴)

دوره خیلی کامل و با جزئیات بود. یکی از بهترین نکاتش اینه که فایل همه کدهای نوشته شده قابل دانلوده تا خودمونم بتونیم اجراشون کنیم. فقط یکم صدا تو بعضی ویدیوها پایین بود ولی محتوا فوق‌العاده‌ست.

محمدرضا طلوعی