عنوان دوره:
دوره آموزش وب اسکریپینگ و اتوماسیون با پایتون (Web Scraping & Automation using Python)
۵ فصل
۴۳ جلسه
۵ ساعت ۳۰ دقیقه ۸ ثانیه
ویدیو معرفی دوره
سرفصل دوره:
مقدمه و معرفی دوره
۰۳:۱۷
مشاهده+
در قسمت اول دوره "Web Scraping و Automation با Python"، به معرفی کلی دوره و هدف آن پرداختهایم. در این بخش، شما با ساختار دوره، موضوعات مورد بحث، پیشنیازهای لازم، و نحوه استفاده از مهارتهای کسبشده در زندگی کاری و شخصی خود آشنا میشوید. همچنین مدرس دوره، تجربههای خود را به اشتراک گذاشته و دلایل اهمیت یادگیری وب اسکریپینگ و اتوماسیون را توضیح میدهد.
این قسمت برای شرکتکنندگانی طراحی شده که میخواهند تصویر کاملی از روند آموزش داشته باشند و بدانند چگونه این دوره میتواند مسیر شغلی و دانش آنها را بهبود بخشد.
آشنایی با مفهوم Web Scraping
۰۲:۴۴
مشاهده+
در قسمت دوم دوره "Web Scraping و Automation با Python"، به معرفی مفهوم Web Scraping پرداختهایم. در این بخش، شما با تعریف دقیق Web Scraping، کاربردهای آن در دنیای واقعی و نحوه استخراج دادههای مفید از وبسایتها آشنا میشوید.
این ویدیو به شما کمک میکند تا اهمیت این مهارت را در پروژههای مختلف مانند جمعآوری اطلاعات، تحلیل دادهها و خودکارسازی فرآیندها درک کنید. همچنین با مثالهای ساده و قابلفهم، زمینهای فراهم میشود تا در ادامه دوره بهتر بتوانید با ابزارها و تکنیکهای Web Scraping کار کنید.
چرا یادگیری Web Scraping اهمیت دارد؟
۰۳:۲۹
مشاهده+
در قسمت سوم دوره "Web Scraping و Automation با Python"، به این سوال پاسخ داده میشود که چرا یادگیری Web Scraping اهمیت دارد و در چه مواردی میتوان از آن استفاده کرد. در این بخش، کاربردهای متنوع Web Scraping، از جمعآوری اطلاعات قیمتها و تحلیل بازار گرفته تا خودکارسازی فرآیندها و استخراج دادههای موردنیاز برای پروژههای مختلف، توضیح داده میشود.
این ویدیو به شما دیدگاهی جامع میدهد تا درک کنید چگونه Web Scraping میتواند زندگی حرفهای و شخصی شما را سادهتر و موثرتر کند و چرا این مهارت یکی از ابزارهای کلیدی برای برنامهنویسان و تحلیلگران داده است.
چرا از زبان پایتون برای Web Scraping استفاده می کنیم؟
۰۳:۰۱
مشاهده+
در قسمت چهارم دوره "Web Scraping و Automation با Python"، به بررسی دلایل استفاده از زبان برنامهنویسی پایتون برای Web Scraping پرداختهایم. در این بخش، مزایای پایتون مانند سادگی، خوانایی، و وجود کتابخانههای قدرتمند مثل Beautiful Soup، Selenium و Requests توضیح داده میشود.
این قسمت نشان میدهد که چرا پایتون بهعنوان یکی از محبوبترین زبانها در حوزه Web Scraping شناخته میشود و چگونه ابزارها و امکانات آن میتوانند فرآیند استخراج دادهها را سریعتر و آسانتر کنند. این بخش مقدمهای عالی برای ورود به تکنیکهای پیشرفتهتر است.
یادگیری و شناسایی المان های HTML
۰۲:۴۰
مشاهده+
در قسمت پنجم دوره "Web Scraping و Automation با Python"، به معرفی و آموزش المانهای HTML پرداختهایم. در این بخش، با ساختار و اجزای اصلی HTML مثل تگها، Attributeها و محتوا آشنا میشوید و یاد میگیرید که چگونه این اطلاعات به شما در شناسایی و استخراج دادهها از صفحات وب کمک میکند.
این قسمت با استفاده از مثالهای کاربردی، نحوه کار با المانهای HTML و نقش آنها در Web Scraping را توضیح میدهد. یادگیری این مفاهیم پایه، اولین گام ضروری برای نوشتن کدهای دقیق و موثر Web Scraping است.
استفاده از Inspect Element برای شناسایی و بررسی تگ ها و المان های HTML
۰۳:۳۶
مشاهده+
در قسمت ششم دوره "Web Scraping و Automation با Python"، نحوه استفاده از ابزار Inspect Element در مرورگر برای بررسی تگها و المانهای HTML صفحات وب آموزش داده میشود. در این بخش، یاد میگیرید که چگونه ساختار HTML وبسایتهای مختلف را تحلیل کنید و المانهای موردنیاز خود را برای Web Scraping شناسایی کنید.
این قسمت با مثالهای عملی، تکنیکهای پیدا کردن تگها، کلاسها و IDهای مرتبط با دادهها را نشان میدهد و شما را برای نوشتن کدهای دقیقتر و هدفمندتر آماده میکند. این مهارت یکی از ابزارهای کلیدی برای موفقیت در پروژههای Web Scraping است.
نصب و راه اندازی پایتون
۰۴:۴۳
مشاهده+
در قسمت هفتم دوره "Web Scraping و Automation با Python"، نحوه نصب پایتون روی سیستمعامل ویندوز به صورت گامبهگام آموزش داده میشود. در این بخش، فرایند دانلود، نصب و تنظیمات اولیه پایتون به شکلی ساده و کاربردی توضیح داده شده است.
با اینکه نصب پایتون روی سایر سیستمعاملها مثل مکاواس و لینوکس نیز تفاوت زیادی ندارد، اما نکات اصلی نصب برای همه پلتفرمها به طور کامل بیان شده است. این قسمت شما را برای شروع کار با پایتون و اجرای پروژههای Web Scraping آماده میکند.
نصب و راه اندازی VSCode و افزونه پایتون
۰۴:۴۲
مشاهده+
در قسمت هشتم دوره "Web Scraping و Automation با Python"، نحوه نصب VSCode (Visual Studio Code) بهعنوان محیط توسعه یکپارچه (IDE) و همچنین نصب افزونه پایتون برای آن آموزش داده میشود. در این بخش، شما یاد میگیرید که چطور این ابزار قدرتمند را برای نوشتن و اجرای کدهای پایتون بهطور مؤثر راهاندازی کنید.
این قسمت همچنین به شما نشان میدهد که چگونه افزونه پایتون در VSCode را نصب و پیکربندی کنید تا محیط برنامهنویسی شما برای پروژههای Web Scraping بهینه شود. با این تنظیمات، میتوانید از ویژگیهای مختلف VSCode مانند تکمیل خودکار کد، اشکالزدایی و اجرای مستقیم کدهای پایتون بهرهمند شوید.
معرفی و آشنایی با کتابخانه Beautiful Soup
۰۲:۲۰
مشاهده+
در اولین قسمت از فصل دوم دوره "Web Scraping و Automation با Python"، به معرفی کتابخانه قدرتمند Beautiful Soup میپردازیم. در این بخش، کاربردهای اصلی این کتابخانه در استخراج و پردازش دادهها از صفحات HTML توضیح داده میشود و شما یاد میگیرید که چرا این ابزار یکی از محبوبترین انتخابها برای Web Scraping است.
این قسمت به صورت کامل توضیح میدهد که چگونه Beautiful Soup با سادهسازی دسترسی به المانهای HTML و ساختاردهی دادهها، کار استخراج اطلاعات از وبسایتها را آسانتر میکند. همچنین مثالهایی از کاربرد آن در پروژههای مختلف ارائه میشود تا اهمیت استفاده از این کتابخانه را بهتر درک کنید.
نحوه استفاده از کتابخانه Beautiful Soup
۰۲:۰۲
مشاهده+
در قسمت دوم فصل دوم از دوره "Web Scraping و Automation با Python"، به نحوه استفاده تئوری از Beautiful Soup پرداخته و اهمیت HTML Parserها را توضیح میدهیم. در این بخش، یاد میگیرید که چگونه Beautiful Soup با کمک Parserها دادههای HTML را پردازش و به فرمت قابلفهم برای استخراج تبدیل میکند.
این قسمت به بررسی انواع Parserهای داخلی و خارجی مثل html.parser و lxml اختصاص دارد و به شما کمک میکند تا درک عمیقتری از عملکرد Beautiful Soup و نحوه استفاده بهینه از آن داشته باشید. این آموزش گامی ضروری برای ورود به بخشهای عملیتر در کار با Beautiful Soup است.
نصب کتابخانه های مورد نیاز برای شروع کار با کتابخانه Beautiful Soup
۰۱:۳۴
مشاهده+
در قسمت سوم فصل دوم از دوره "Web Scraping و Automation با Python"، نحوه نصب کتابخانههای موردنیاز برای شروع کار با Beautiful Soup و Requests آموزش داده میشود.
در این بخش، یاد میگیرید که چگونه با استفاده از pip این کتابخانهها را بهراحتی روی سیستم خود نصب کنید. همچنین به اهمیت استفاده از Requests برای ارسال درخواستهای HTTP و نقش آن در کنار Beautiful Soup برای دسترسی به صفحات وب پرداخته میشود.
این قسمت، پایهای عملی برای آمادهسازی محیط کدنویسی و شروع پروژههای Web Scraping شما خواهد بود.
نوشتن اولین ربات به کمک کتابخانه Beautiful Soup
۰۶:۳۸
مشاهده+
در قسمت چهارم فصل دوم از دوره "Web Scraping و Automation با Python"، اولین ربات ساده خود را با استفاده از Beautiful Soup مینویسیم. در این بخش، رباتی طراحی میکنیم که به یک وبسایت متصل شده و محتوای صفحه (Content) را دریافت میکند.
این آموزش به شما کمک میکند تا با فرآیند اولیه Web Scraping، از ارسال درخواست به وبسایت تا استخراج دادههای اولیه، آشنا شوید. نوشتن این ربات ساده، اولین گام عملی شما در مسیر یادگیری کار با Beautiful Soup است.
آشنایی با روش های مختلف جستجوی یک المان با کتابخانه Beautiful Soup
۰۴:۴۷
مشاهده+
در قسمت پنجم فصل دوم از دوره "Web Scraping و Automation با Python"، روشهای مختلف برای پیدا کردن المانهای موردنظر در صفحات وب با استفاده از Beautiful Soup آموزش داده میشود.
در این بخش، با متد soup.find() و حالتهای متنوع آن آشنا میشوید. یاد میگیرید که چگونه با استفاده از شناسهها (ID)، کلاسها (Class) و سایر ویژگیها، المانهای خاص را در صفحه پیدا کنید. این قسمت پایهای برای استخراج دقیقتر دادهها از صفحات وب است و به شما کمک میکند تا مهارتهای خود را در کار با Beautiful Soup ارتقا دهید.
شناسایی و استفاده از المان های داخل صفحه برای استخراج داده
۰۶:۲۸
مشاهده+
در قسمت ششم فصل دوم از دوره "Web Scraping و Automation با Python"، از آموختههای قسمت قبل استفاده میکنیم تا یک المان خاص را در یک وبسایت پیدا کرده و داده مرتبط با آن را استخراج کنیم.
در این بخش، با استفاده از متدهای Beautiful Soup، مراحل پیدا کردن المان هدف و گرفتن اطلاعات آن به صورت عملی آموزش داده میشود. این قسمت به شما کمک میکند تا بهطور مستقیم دادههای مدنظرتان را از صفحات وب استخراج کنید و مهارتهای Web Scraping خود را تقویت کنید.
استخراج کل متن داخل یک المان بزرگ
۰۶:۳۷
مشاهده+
در قسمت هفتم فصل دوم از دوره "Web Scraping و Automation با Python"، یاد میگیریم که چگونه متن یک المان بزرگ که شامل چندین المان کوچکتر است را استخراج کنیم. سپس، این متن را به یک لیست تبدیل میکنیم که حاوی متن تمام المانهای داخلی آن باشد.
این بخش به شما نشان میدهد که چطور با استفاده از Beautiful Soup دادههای پیچیدهتر را پردازش و ساختاردهی کنید. این مهارت برای پروژههایی که نیاز به استخراج و دستهبندی اطلاعات از صفحات وب دارند بسیار کاربردی است.
استخراج داده از المان هایی با خصوصیت مشابه - قسمت اول
۰۶:۱۷
مشاهده+
در قسمت هشتم فصل دوم از دوره "Web Scraping و Automation با Python"، با متد find_all در کتابخانه Beautiful Soup آشنا میشویم. این متد قدرتمند به شما امکان میدهد تا تمامی المانهایی که یک ویژگی یا خصوصیت مشترک دارند را شناسایی و استخراج کنید.
در این بخش، یاد میگیرید چگونه با استفاده از ویژگیهایی مانند تگها، کلاسها و IDها، گروهی از المانهای مشابه را پیدا کرده و دادههای آنها را بهطور همزمان استخراج کنید. این آموزش یک گام مهم برای کار با دادههای تکراری و ساختارمند در صفحات وب است.
استخراج داده از المان هایی با خصوصیت مشابه - قسمت دوم
۱۱:۲۲
مشاهده+
در قسمت نهم فصل دوم از دوره "Web Scraping و Automation با Python"، به ادامه آموزش متد find_all میپردازیم. در این بخش، با استفاده از یک مثال جدید، روشهای مختلف استفاده از این متد را برای پیدا کردن و استخراج گروهی از المانهای مشابه بررسی میکنیم.
این تمرین عملی به شما کمک میکند تا درک عمیقتری از متد find_all پیدا کرده و مهارت خود را در کار با دادههای تکراری و ساختارمند در صفحات وب تقویت کنید.
نحوه ذخیره سازی داده جمع آوری شده در قالب یک فایل TXT
۰۵:۳۱
مشاهده+
در قسمت دهم فصل دوم از دوره "Web Scraping و Automation با Python"، یاد میگیریم که چگونه دادههایی که در قسمت قبل جمعآوری کردهایم را در قالب یک فایل TXT ذخیره کنیم.
در این بخش، با استفاده از توابع ورودی و خروجی فایل در Python، نحوه ذخیرهسازی دادهها به صورت متنی را آموزش میدهیم. این فرآیند به شما کمک میکند تا اطلاعات جمعآوری شده را بهراحتی نگهداری کنید و در پروژههای بعدی از آنها استفاده کنید. این مهارت برای مدیریت دادههای استخراج شده و ذخیرهسازی آنها در قالبهای ساده بسیار مفید است.
نحوه ذخیره سازی داده جمع آوری شده به کمک کتابخانه Pandas
۰۸:۳۰
مشاهده+
در قسمت یازدهم فصل دوم از دوره "Web Scraping و Automation با Python"، با نحوه ذخیره و سازماندهی دادهها در قالب فایل CSV به کمک کتابخانه Pandas به صورت حرفه ای آشنا می شویم.
در این بخش، با مفهوم DataFrame در Pandas آشنا میشوید و یاد میگیرید چگونه دادهها را به راحتی در فایلهای CSV ذخیره کنید. این آموزش به شما این امکان را میدهد که دادههای استخراج شده را در قالبی مرتب و ساختارمند ذخیره کرده و برای پردازشهای بعدی در دسترس داشته باشید.
نحوه پیاده سازی pagination و استخراج داده از چندین صفحه در ربات
۰۷:۲۰
مشاهده+
در قسمت دوازدهم فصل دوم از دوره "Web Scraping و Automation با Python"، با مفهوم Pagination و نحوه استخراج دادهها از چندین صفحه آشنا میشویم.
در این بخش، یاد میگیریم که چگونه دادهها را از صفحات مختلف یک وبسایت که به وسیله سیستم pagination تقسیمبندی شدهاند، استخراج کنیم. این آموزش به شما کمک میکند تا بهطور مؤثر و خودکار دادهها را از صفحات مختلف جمعآوری کرده و اطلاعات کاملی از سایتهای دارای چندین صفحه دریافت کنید.
نحوه پیاده سازی Exception Handling برای جلوگیری از وقوع خطا و صرفه جویی در زمان
۱۶:۴۶
مشاهده+
در قسمت سیزدهم فصل دوم از دوره "Web Scraping و Automation با Python"، به بهبود کدهای Web Scraping با استفاده از Exception Handling پرداخته میشود. در این بخش، یاد میگیرید چگونه کدی که برای استخراج دادهها از صفحات مختلف نوشتهاید را بهینه کنید تا در صورت برخورد با صفحهای که دادهای در آن وجود ندارد، بهطور خودکار از حلقه خارج شود و از وقوع خطا جلوگیری کنید.
این آموزش به شما کمک میکند تا رباتهای خود را مقاومتر و کاراتر بسازید و از مشکلاتی مانند شکست در فرآیند استخراج دادهها جلوگیری کنید. با یادگیری مفهوم Exception Handling، قادر خواهید بود کدهای خود را به گونهای طراحی کنید که در برابر شرایط غیرمنتظره و خطاها مقاوم باشد.
آشنایی با XPath و نحوه نوشتن کدهای XPath
۱۲:۴۹
مشاهده+
در قسمت اول فصل سوم از دوره "Web Scraping و Automation با Python"، با XPath به طور کامل آشنا میشویم و نحوه نوشتن کدهای XPath برای پیدا کردن المانهای صفحات وب را آموزش میدهیم. XPath یک زبان قوی برای انتخاب المانها از XML یا HTML است و یکی از ابزارهای اساسی در Web Scraping به حساب میآید.
در این بخش، یاد میگیرید چگونه با استفاده از XPath، المانهای دلخواه خود را در صفحات وب پیدا کرده و دادهها را از آنها استخراج کنید. این مهارت به شما کمک میکند تا در پروژههای Web Scraping پیچیدهتر، دادهها را دقیقتر و مؤثرتر جمعآوری کنید.
این فصل به عنوان یک پیشنیاز ضروری برای فصل بعد که به آموزش Selenium اختصاص دارد، عمل میکند. یادگیری XPath به شما کمک میکند تا در Automating Web Interaction با Selenium عملکرد بهتری داشته باشید.
استفاده عملی از XPath برای پیدا کردن المانها در وبسایتها
۱۰:۱۱
مشاهده+
در قسمت دوم فصل سوم از دوره "Web Scraping و Automation با Python"، با استفاده از دانش تئوری که در قسمت قبل به دست آوردیم، به صورت عملی به نوشتن کدهای XPath پرداخته و المانهای مختلف را در صفحات وب پیدا میکنیم.
در این بخش، یاد میگیریم چگونه از XPath در عمل استفاده کنیم تا المانهای دلخواه مانند دکمهها، لینکها، تصاویر و سایر عناصر موجود در صفحه را شناسایی کنیم. این تمرین های عملی به شما این امکان را میدهند که با نحوه کارکرد دقیق XPath در محیط واقعی آشنا شده و توانایی خود را در استفاده از آن برای استخراج دادهها افزایش دهید.
این آموزش به شما کمک میکند تا از XPath در پروژههای پیچیدهتر Web Scraping و Automating صفحات وب استفاده کنید و بهطور مؤثر دادهها را استخراج کنید.
مقدمهای بر Selenium و کاربردهای آن
۰۳:۲۹
مشاهده+
در قسمت اول فصل چهارم از دوره "Web Scraping و Automation با Python"، با Selenium آشنا میشویم و به کاربردهای آن در پروژههای Web Scraping و اتوماسیون وب میپردازیم.
Selenium یکی از قدرتمندترین ابزارها برای تعامل با صفحات وب است که به شما امکان میدهد مانند یک کاربر واقعی با مرورگرها تعامل داشته باشید. در این بخش، یاد میگیریم چرا Selenium برای کارهایی مانند پر کردن فرمها، کلیک روی دکمهها، اسکرول کردن صفحه و موارد مشابه بسیار مناسب است.
این قسمت مقدمهای است برای درک قابلیتهای این ابزار و آمادهسازی شما برای نوشتن رباتهای پیشرفته که میتوانند با صفحات وب به طور کامل تعامل داشته باشند.
نصب کتابخانه Selenium و درایورهای مرورگر
۰۴:۵۱
مشاهده+
در قسمت دوم فصل چهارم از دوره "Web Scraping و Automation با Python"، نحوه نصب کتابخانه Selenium و همچنین درایورهای مرورگر فایرفاکس و کروم را آموزش میدهیم.
در این بخش، با مراحل گامبهگام نصب Selenium آشنا شده و یاد میگیریم چگونه درایورهای مربوط به مرورگرهای مختلف مانند Geckodriver (فایرفاکس) و Chromedriver (کروم) را برای اجرای رباتها آماده کنیم. این درایورها به Selenium اجازه میدهند که با مرورگرها ارتباط برقرار کرده و عملیات اتوماسیون را اجرا کند.
این آموزش پایهای ضروری برای شروع کار با Selenium است و شما را آماده میکند تا در قسمتهای بعدی رباتهای قدرتمندی برای تعامل با صفحات وب بسازید.
Selenium یا Beautiful Soup؟ مسئله این است؟!
۰۳:۰۲
مشاهده+
در قسمت سوم فصل چهارم از دوره "Web Scraping و Automation با Python"، به این سوال پاسخ میدهیم که چه زمانی باید از Selenium استفاده کنیم و چه زمانی از Beautiful Soup.
در این بخش، یاد میگیریم چگونه تشخیص دهیم که دادههای موردنظر ما در یک وبسایت با JavaScript هندل میشوند یا بهصورت استاتیک در HTML قابل دسترسی هستند. با استفاده از کنسول مرورگر و ابزارهای توسعهدهنده، این بررسی را انجام میدهیم و تعیین میکنیم که کدام ابزار برای پروژه ما مناسبتر است.
این قسمت به شما کمک میکند تا در زمان مناسب از ابزار درست استفاده کنید و در پروژههای Web Scraping بهینهتر عمل کنید.
نوشتن اولین ربات با Selenium
۰۵:۴۴
مشاهده+
در قسمت چهارم فصل چهارم از دوره "Web Scraping و Automation با Python"، اولین ربات خود را با استفاده از Selenium مینویسیم.
در این بخش، یاد میگیریم چگونه یک صفحه وب را با مرورگر باز کرده و پس از یک وقفه کوتاه، آن را ببندیم. این تمرین ساده، اولین قدم برای آشنایی با نحوه کنترل مرورگرها و اجرای دستورات اتوماسیون است.
این آموزش به شما کمک میکند تا با اصول پایه کار با Selenium آشنا شده و برای پروژههای پیچیدهتر آماده شوید.
نصب افزونه Jupyter Notebook در VS Code
۰۶:۰۵
مشاهده+
در قسمت پنجم فصل چهارم از دوره "Web Scraping و Automation با Python"، به توضیح دلایل استفاده از Jupyter Notebook در پروژههای Selenium میپردازیم و نحوه نصب افزونه Jupyter Notebook روی Visual Studio Code را آموزش میدهیم.
این ابزار به ما امکان میدهد تا رباتهای Selenium را به صورت مرحلهبهمرحله بنویسیم و هر بخش از کد را به صورت جداگانه تست کنیم. استفاده از این روش باعث میشود تا کدنویسی ما سریعتر و خطایابی آسانتر انجام شود.
این بخش یکی از کلیدیترین قسمتهای دوره است که شما را برای نوشتن رباتهای پیچیدهتر و دقیقتر آماده میکند.
آموزش پیدا کردن یک المان مشخص در Selenium
۱۱:۱۴
مشاهده+
در قسمت ششم فصل چهارم از دوره "Web Scraping و Automation با Python"، با روش استفاده از متد find_element در Selenium آشنا میشویم.
در این بخش، از کلاس By استفاده میکنیم تا المانهای مختلف یک صفحه وب را برای ربات شناسایی کنیم. این متد به ما کمک میکند تا بهراحتی به المانهای موردنظر دسترسی پیدا کرده و عملیاتهای مختلفی روی آنها انجام دهیم.
این آموزش یکی از بخشهای مهم برای ساخت رباتهایی است که بتوانند بهطور دقیق با صفحات وب تعامل داشته باشند.
آموزش پیدا کردن المان های با خصوصیت یکسان در Selenium
۰۶:۲۷
مشاهده+
در قسمت هفتم فصل چهارم از دوره "Web Scraping و Automation با Python"، با متد find_elements در Selenium آشنا میشویم.
این متد به ما امکان میدهد تا تمامی المانهایی که خصوصیات مشابهی دارند را بهصورت یک لیست پیدا کنیم. این ویژگی برای مواقعی که نیاز به استخراج چندین المان مشابه از یک صفحه داریم (مانند لیست محصولات یا لینکها) بسیار کاربردی است.
این آموزش ابزار مهمی را برای اجرای رباتهای پیشرفتهتر و دقیقتر در اختیار شما قرار میدهد.
اضافه کردن قابلیت Pagination به ربات و کلیک روی المان های صفحه
۰۶:۳۸
مشاهده+
در قسمت هشتم فصل چهارم از دوره "Web Scraping و Automation با Python"، یاد میگیریم چگونه قابلیت Pagination را به ربات خود اضافه کنیم.
در این بخش، از متد click() در Selenium استفاده میکنیم تا ربات بتواند روی المانهای صفحه (مانند دکمه "صفحه بعد") کلیک کند و دادهها را از چندین صفحه بهصورت متوالی جمعآوری کند.
این آموزش برای پروژههایی که نیاز به جمعآوری داده از چندین صفحه وب دارند، بسیار کاربردی است و به شما کمک میکند تا رباتهای حرفهایتر بسازید.
آشنایی با کلاس Select در Selenium
۳۸:۴۴
مشاهده+
در قسمت نهم فصل چهارم از دوره "Web Scraping و Automation با Python"، با کلاس Select در Selenium آشنا میشویم.
این کلاس به ما امکان میدهد تا بهراحتی با تگهای Select در صفحات وب (مانند منوهای کشویی) تعامل داشته باشیم. در این بخش یاد میگیریم چگونه گزینههای موجود در یک Dropdown را انتخاب کنیم و دادهها را بر اساس آن استخراج کنیم.
این آموزش برای مواقعی که نیاز به کار با فرمها یا فیلترهای وبسایت دارید، بسیار مفید خواهد بود.
بهبود ربات و مدیریت خطاها در Selenium
۰۴:۵۷
مشاهده+
در قسمت دهم فصل چهارم از دوره "Web Scraping و Automation با Python"، به بهبود ربات نوشتهشده در قسمت قبلی میپردازیم.
در این بخش یاد میگیریم چگونه با استفاده از تکنیکهای مختلف، خطاهای احتمالی ربات را شناسایی و مدیریت کنیم. این مرحله برای افزایش پایداری و عملکرد ربات در هنگام اجرای عملیاتهای پیچیده در صفحات وب، بسیار حیاتی است.
این آموزش به شما کمک میکند رباتی بسازید که در شرایط مختلف، قابلاعتماد و بدون خطا عمل کند.
آشنایی با انواع Wait در Selenium
۱۶:۳۳
مشاهده+
در قسمت یازدهم فصل چهارم از دوره "Web Scraping و Automation با Python"، با انواع Wait در Selenium آشنا میشویم.
در این بخش، بهطور تئوری و با استفاده از مثالهای تصویری، یاد میگیریم که چگونه از Explicit Wait و Implicit Wait استفاده کنیم تا ربات بتواند با زمانبندی مناسب، صبر کند تا المانها به طور کامل بارگذاری شوند و از خطاهای مرتبط با تأخیر در بارگذاری صفحات جلوگیری کنیم.
این آموزش برای بهبود عملکرد رباتها در زمانهایی که با بارگذاری تدریجی دادهها و محتواهای جاوا اسکریپت مواجه میشویم، ضروری است.
بهبود ربات با استفاده از Wait در Selenium
۱۵:۲۴
مشاهده+
در قسمت دوازدهم فصل چهارم از دوره "Web Scraping و Automation با Python"، یاد میگیریم چگونه از مفهوم Wait که در قسمتهای قبلی آموزش داده شده است، برای بهبود عملکرد رباتهای خود استفاده کنیم.
در این بخش، رباتی که در قسمتهای قبل نوشتهایم را با استفاده از Explicit Wait و Implicit Wait بهینهسازی میکنیم تا به طور موثرتر و با دقت بالاتر دادههای مد نظر را از صفحات وب استخراج کند. این ربات قادر خواهد بود که با یک بار اجرا، کل دادههای مورد نیاز را به صورت کامل جمعآوری کند بدون اینکه دچار خطاهای معمولی مثل Timeout یا ElementNotFound شود.
این قسمت برای کسانی که میخواهند رباتهای خود را بهینهسازی و عملکرد آنها را ارتقا دهند، بسیار مفید است.
اجرای کدهای JavaScript در ربات با Selenium
۱۶:۲۹
مشاهده+
در قسمت سیزدهم فصل چهارم از دوره "Web Scraping و Automation با Python"، یاد میگیریم چگونه میتوانیم کدهای JavaScript را در رباتهای خود اجرا کنیم.
در این بخش، به کمک Selenium و قابلیتهای آن، به شما آموزش میدهیم که چگونه کدهای جاوا اسکریپت را مستقیماً در مرورگر اجرا کنید تا بتوانید تعامل بیشتری با صفحات وب داشته باشید. این ویژگی مخصوصاً زمانی کاربرد دارد که نیاز به انجام عملیات پیچیدهتری مانند شبیهسازی رویدادهای جاوا اسکریپت یا دسترسی به دادههایی که از طریق JavaScript بارگذاری میشوند، دارید.
این آموزش برای کسانی که میخواهند از پتانسیل کامل Selenium برای اتوماسیون پیشرفته و تعامل با صفحات وب استفاده کنند، بسیار مفید است.
استفاده از متد send_keys برای پر کردن فرمها در Selenium
۲۰:۱۶
مشاهده+
در قسمت چهاردهم فصل چهارم از دوره "Web Scraping و Automation با Python"، با متد send_keys آشنا میشویم و یاد میگیریم چگونه از آن برای پر کردن فرمها در صفحات وب استفاده کنیم.
این متد یکی از ابزارهای کلیدی در Selenium است که به ما امکان میدهد تا به راحتی دادهها را در فیلدهای فرم وارد کنیم، دقیقا مشابه به اینکه کاربر آنها را به صورت دستی تایپ کند. در این بخش، ما با جزئیات تمام، نحوه استفاده از send_keys برای تکمیل فرمها، ورود متن به فیلدهای مختلف و تعامل با سایتهایی که نیاز به ارسال داده دارند را یاد خواهیم گرفت.
این آموزش برای کسانی که قصد دارند اتوماسیون پر کردن فرمها یا هر نوع تعامل مشابه را در رباتهای خود پیادهسازی کنند، بسیار مفید و کاربردی است.
استفاده پیشرفته از متد send_keys و کلاس Keys برای ارسال کلیدهای خاص در Selenium
۰۵:۵۰
مشاهده+
در قسمت پانزدهم فصل چهارم از دوره "Web Scraping و Automation با Python"، به استفاده پیشرفتهتر از متد send_keys و کلاس Keys میپردازیم. در این قسمت، یاد میگیریم چگونه میتوانیم کلیدهای خاص مثل Enter، Space، Tab و دیگر کلیدهای پر تکرار را به فرمها ارسال کنیم.
کلاس Keys در Selenium به ما این امکان را میدهد که بتوانیم دقیقاً مانند یک کاربر، کلیدهای خاصی را که معمولاً در فرمها استفاده میشوند، شبیهسازی کنیم. به عنوان مثال، شما میتوانید با استفاده از Keys.ENTER به طور خودکار فیلد را ارسال کنید یا با Keys.SPACE فضای خالی وارد کنید. این کار نه تنها به راحتی در تکمیل فرمها کمک میکند بلکه برای انجام کارهای پیچیدهتری مانند شبیهسازی حرکات کاربر نیز کاربرد دارد.
این قسمت از دوره برای کسانی که میخواهند تجربهای کامل از اتوماسیون پر کردن فرمها و تعامل با فرمها در صفحات وب داشته باشند، بسیار ضروری است.
بهبود ربات و استفاده از کدهای JS در Selenium
۰۸:۳۳
مشاهده+
در قسمت شانزدهم فصل چهارم از دوره "Web Scraping و Automation با Python"، به بهبود رباتی که قبلاً نوشتیم میپردازیم و همچنین با یک کد JS جدید آشنا میشویم که میتوانیم در Selenium استفاده کنیم.
در این قسمت از دوره، ابتدا ربات خود را با اعمال تغییرات و بهبودهایی مانند رفع اشکالات و بهینهسازی عملکرد تکمیل میکنیم. یکی از اصلیترین مواردی که به آن پرداخته میشود، بهبود قابلیت تعامل با صفحات داینامیک است تا ربات به راحتی قادر به شبیهسازی رفتار انسان در سایتهای مختلف باشد.
علاوه بر این، به شما نشان خواهیم داد که چگونه میتوانید از کدهای JavaScript داخل رباتهای Selenium خود استفاده کنید. این ویژگی به خصوص زمانی که با مشکلاتی مانند بارگذاری صفحات به صورت داینامیک مواجه میشویم بسیار مفید است. از طریق اجرای کدهای JS میتوانیم عملکرد ربات را بهبود دهیم و کنترل بیشتری روی تعاملات با صفحه داشته باشیم.
این قسمت برای کسانی که میخواهند رباتهای پیچیدهتر و هوشمندتری بسازند و از JavaScript در کدنویسی خود بهرهمند شوند، ضروری است.
استفاده از حالت Headless Mode در Selenium
۰۶:۱۸
مشاهده+
در قسمت هفدهم فصل چهارم از دوره "Web Scraping و Automation با Python"، به آموزش استفاده از حالت Headless Mode در رباتهای Selenium پرداخته میشود. این بخش یکی از مراحل مهم و کاربردی برای بهبود رباتها است که به شما کمک میکند رباتهایتان را به صورت headless اجرا کنید.
Headless Mode به این معنی است که ربات شما بدون باز کردن یک پنجره مرورگر گرافیکی و فقط در پسزمینه عمل میکند. این ویژگی مزایای زیادی دارد، از جمله:
افزایش سرعت اجرا: رباتها بدون نیاز به بارگذاری رابط کاربری (UI) مرورگر سریعتر اجرا میشوند.
کاهش مصرف منابع سیستم: چون ربات در پسزمینه اجرا میشود و نیازی به نمایش گرافیکی صفحه نیست، منابع کمتری مصرف میشود.
مناسب برای محیطهای سرور: بسیاری از سرورهای اینترنتی و محیطهای بدون رابط گرافیکی از این حالت برای اجرای رباتها استفاده میکنند.
در این قسمت از دوره، شما یاد خواهید گرفت که چطور با اضافه کردن چند خط کد ساده به ربات خود، حالت Headless Mode را فعال کنید و رباتتان را به صورت غیر گرافیکی و بهینهشده اجرا کنید. این ویژگی مخصوصاً زمانی که نیاز به اجرا در محیطهای مختلف یا در سرورهای بدون رابط کاربری گرافیکی دارید بسیار مفید است.
این قسمت به شما این امکان را میدهد که رباتهای خود را سریعتر و کارآمدتر از قبل اجرا کنید و در نهایت باعث بهبود عملکرد کلی پروژههای Web Scraping شما میشود.
بهبود ربات با قابلیتهای اضافی برای عبور از محدودیتهای Headless Mode
۰۷:۰۰
مشاهده+
در قسمت هجدهم فصل چهارم از دوره "Web Scraping و Automation با Python"، به آموزش بهبود رباتها با افزودن قابلیتهایی مانند User-Agent پرداخته میشود تا از محدودیتهای سایتهایی که پشتیبانی از حالت Headless Mode را مسدود میکنند، عبور کنیم.
گاهی اوقات وبسایتها ممکن است به دلیل استفاده از Headless Mode، که در آن مرورگر به صورت غیر گرافیکی اجرا میشود، شناسایی شوند و به این ترتیب دسترسی به آنها مسدود شود. یکی از راههای عبور از این محدودیتها استفاده از User-Agent است که میتواند باعث شود ربات شما مانند یک کاربر واقعی به نظر برسد و از شناسایی به عنوان یک ربات خودداری کند.
در این قسمت از دوره، شما یاد خواهید گرفت که چطور با افزودن User-Agent به رباتهای خود، از این محدودیتها عبور کنید و رباتها را طوری تنظیم کنید که رفتارشان مانند یک کاربر معمولی و واقعی به نظر برسد. با این کار، سایتها تشخیص نمیدهند که شما در حال استفاده از حالت Headless Mode هستید و دسترسی شما به دادهها مسدود نخواهد شد.
این آموزش شامل موارد زیر میشود:
آموزش تغییر User-Agent در رباتهای Selenium برای ایجاد شبیهسازی بهتر از رفتار کاربران واقعی.
افزایش قدرت پنهانکاری رباتها برای عبور از فیلترهای امنیتی سایتها.
بهبود توانایی رباتها برای انجام Web Scraping از سایتهایی که حساس به Headless Mode هستند.
این قسمت از دوره به شما این امکان را میدهد که رباتهای خود را مخفیانه و بدون مشکل از سایتها داده جمعآوری کنید و محدودیتهای موجود را دور بزنید.
پروژه نهایی دوره
۰۲:۵۷
مشاهده+
در قسمت اول فصل ۵ از دوره "Web Scraping و Automation با Python"، به پروژه نهایی دوره پرداخته میشود که به شما این امکان را میدهد تا تمام مفاهیم و مهارتهایی که در طول دوره آموختهاید را به صورت عملی پیادهسازی کنید.
این پروژه به شما کمک میکند تا دانش خود را در زمینه Web Scraping و Automation با استفاده از Python تقویت کنید و درک بهتری از چگونگی نوشتن رباتهای کاربردی برای استخراج داده از وبسایتها پیدا کنید. در این پروژه نهایی، شما با استفاده از کتابخانههای BeautifulSoup و Selenium باید یک فرم Google Form را به صورت خودکار تکمیل کنید.
جزئیات پروژه نهایی:
باز کردن صفحه فرم: اولین مرحله پروژه شامل باز کردن صفحه Google Form با استفاده از ربات است.
گرفتن عکس از صفحه قبل از تکمیل فرم: ربات باید از صفحه فرم قبل از تکمیل آن تصویر بگیرد.
پر کردن فرم: ربات باید تمام فیلدهای فرم را به صورت خودکار پر کند.
گرفتن عکس از صفحه بعد از تکمیل فرم: پس از تکمیل فرم، ربات باید از صفحه جدیدی که پس از تکمیل نمایش داده میشود، عکسی بگیرد.
Submit کردن فرم (اختیاری): در مرحله نهایی، ربات میتواند فرم را به طور خودکار ارسال کند، اما این مرحله به دلخواه شما است.
این پروژه برای هرکسی که میخواهد تجربه عملی از Web Scraping و Automation به دست آورد، بسیار مفید است. با تکمیل این پروژه نهایی، شما قادر خواهید بود تا رباتهای پیچیدهتری بسازید که میتوانند کارهای متنوعی را در وب به صورت خودکار انجام دهند.
نحوه انجام پروژه:
در این قسمت، یک فایل Jupyter Notebook که مشابه یک TODO لیست است در اختیار شما قرار داده میشود تا هر مرحله از کدنویسی ربات را با دقت پیش ببرید. این فایل تمام مراحل را به طور واضح و گام به گام شرح داده تا بتوانید ربات خود را به درستی بسازید. بعد از نوشتن کدها، شما باید ربات خود را چندین بار تست کنید تا از عملکرد صحیح آن اطمینان حاصل کنید.
در نهایت، پس از تکمیل کدها و تستهای لازم، باید فایل نهایی خود را ارسال کنید تا توسط مربی بررسی و نتایج آن به شما اعلام شود.
با پایان این پروژه نهایی، شما به یک توسعهدهنده متخصص در زمینه Web Scraping و Automation با Python تبدیل خواهید شد و قادر خواهید بود پروژههای واقعی را به طور حرفهای انجام دهید.
چرا پروژه نهایی اهمیت دارد؟
این پروژه به شما این امکان را میدهد تا تمام اطلاعات آموختهشده را در عمل پیادهسازی کنید.
یک تجربه عملی از Web Scraping و Automation به شما میدهد.
به شما کمک میکند تا در دنیای واقعی به چالشهای اتوماتیک کردن جمعآوری دادهها پاسخ دهید.
این قسمت از دوره به شما مهارتهای عملی و تکنیکهای لازم برای انجام پروژههای مشابه در دنیای واقعی را میآموزد و میتواند شما را به یک کارشناس فنی در زمینه پایتون، Web Scraping و Automation تبدیل کند.
کلام آخر و نقشه راه بعد از دوره
۰۲:۱۳
مشاهده+
در قسمت پایانی دوره "Web Scraping و Automation using Python"، ما به جمعبندی مطالب دوره میپردازیم و نقشه راه برای ادامه مسیر یادگیری شما را معرفی میکنیم. این قسمت از دوره به شما کمک میکند تا بر اساس دانش و مهارتهایی که در طول دوره به دست آوردهاید، گامهای بعدی خود را به درستی بردارید و در مسیر توسعهدهنده وب و متخصص Web Scraping قرار بگیرید.
کلام آخر:
ما در این دوره به شما اصول اولیه و پیشرفته Web Scraping و Automation با پایتون را آموختیم. از کتابخانههای BeautifulSoup و Selenium استفاده کردیم و تکنیکهای پیچیدهای مانند Pagination, Handling Errors, Headless Mode, و Interacting with Forms را یاد گرفتیم. با تمرینهای عملی و پروژههای مختلف، شما اکنون قادر هستید که دادهها را از وبسایتهای مختلف استخراج کرده و فرآیندهای خودکار را برای انجام کارهای تکراری پیادهسازی کنید.
این دوره برای کسانی طراحی شده است که علاقه دارند کار با دادهها و اتوماسیون را یاد بگیرند. Web Scraping یک مهارت بسیار ارزشمند در دنیای امروز است که در زمینههایی مانند تحلیل دادهها, بازاریابی دیجیتال, تحقیق بازار, جمعآوری اطلاعات و بسیاری دیگر مورد استفاده قرار میگیرد. ما اطمینان داریم که این دوره به شما کمک کرده است تا پایههای محکمی برای استفاده از پایتون در این زمینهها ایجاد کنید.
نقشه راه بعد از دوره:
اکنون که این دوره را با موفقیت پشت سر گذاشتهاید، پیشنهاد میکنیم که مراحل زیر را برای پیشرفت بیشتر در Web Scraping و Automation دنبال کنید:
تمرین و تسلط بیشتر بر پروژهها:
با استفاده از کدهایی که نوشتید، پروژههای مختلف جدیدی را ایجاد کنید. سعی کنید دادههای جدید از وبسایتهای متفاوت استخراج کنید و از Selenium برای تعامل با صفحات داینامیک استفاده کنید.
یادگیری تکنیکهای پیشرفتهتر:
بعد از این دوره، یادگیری کار با APIها, Data Analysis با Pandas, و مفاهیم پیشرفتهتر XPath و CSS Selectors را شروع کنید. اینها ابزارهایی هستند که به شما در استخراج دادهها و تجزیه و تحلیل آنها کمک خواهند کرد.
کدنویسی با فریم ورکهای مختلف:
بعد از آشنایی با BeautifulSoup و Selenium، به یادگیری فریمورکهای دیگری مثل Scrapy بپردازید که برای انجام Web Scraping به صورت حرفهای و مقیاسپذیر استفاده میشوند.
آشنایی با ابزارهای اتوماسیون دیگر:
به علاوه Selenium، ابزارهایی مانند Playwright و Puppeteer را نیز بررسی کنید که برای اتوماسیون و استخراج دادهها از وب استفاده میشوند.
ایجاد پروژههای واقعی و کاربردی:
به کمک مهارتهایی که در این دوره آموختهاید، پروژههای تحلیل دادهها, جمعآوری اطلاعات برای تحقیقات بازار, و اتوماسیون پروسهها را شروع کنید. این پروژهها میتوانند به شما در ساخت نمونهکارهای قوی کمک کرده و در فرصتهای شغلی جدید به شما مزیت دهند.
به روز رسانی دانش خود:
با توجه به تغییرات سریع در فناوریها و تکنیکهای Web Scraping و Automated Testing, همواره خود را بهروز نگه دارید. مطالعه منابع آنلاین، مقالات، و شرکت در دورههای تخصصی میتواند به شما کمک کند تا مهارتهای خود را به سطح بعدی ارتقاء دهید.
نکات کلیدی:
با یادگیری Web Scraping میتوانید دادههای مورد نیاز خود را از منابع مختلف استخراج کنید.
Automating tasks میتواند به شما در افزایش بهرهوری و انجام کارهای تکراری کمک کند.
Python به عنوان زبان برنامهنویسی اصلی در این دوره، ابزار قدرتمندی برای انجام هر دو کار Web Scraping و Automation است.
در نهایت، موفقیت شما بستگی به میزان تمرین، پروژههای عملی و پژوهش بیشتر دارد. همواره در حال یادگیری باشید و به پیشرفت خود ادامه دهید.
با پایان این دوره، شما آمادهاید تا در دنیای Web Scraping و Automation قدم بردارید و پروژههای پیچیدهتری را به طور حرفهای انجام دهید.
ما خوشحالیم که شما در این دوره همراه ما بودید و منتظر شنیدن داستانهای موفقیت شما در مسیر یادگیری و کار با پایتون و وب اسکرپینگ هستیم!
پیش نیازها:
آیا برای شروع این دوره نیاز به دانش قبلی داریم؟
پاسخ کوتاه این است: خیر!
این دوره به گونهای طراحی شده که برای افراد مبتدی و حتی کسانی که تا به حال هیچ تجربهای در زمینه وب اسکریپینگ یا اتوماسیون نداشتهاند نیز مناسب باشد.
با این حال، داشتن دانش اولیه در زمینههای زیر میتواند یادگیری شما را سرعت ببخشد:
-
آشنایی با زبان پایتون:
اگرچه مباحث کدنویسی و کار با پایتون به صورت ساده در طول دوره آموزش داده میشوند، اما آشنایی اولیه با مفاهیمی مثل متغیرها، توابع و حلقهها میتواند کمککننده باشد.
-
اگر تجربهای در کار با پایتون ندارید، پیشنهاد میکنیم ابتدا مباحث پایهای پایتون را یاد بگیرید.
-
میتوانید از دورههای مقدماتی یا منابع رایگان استفاده کنید.
-
-
دانش پایه HTML:
از آنجایی که در وب اسکریپینگ، دادهها را از صفحات وب استخراج میکنیم، شناخت ساختارهای HTML ضروری است.
-
نگران نباشید؛ در این دوره، بخشهایی از HTML که مورد نیاز هستند، به شما آموزش داده میشوند.
-
اما اگر قبلاً با این زبانها آشنا باشید، کار شما بسیار راحتتر خواهد بود.
-
-
آشنایی با مرورگرها و وبسایتها:
آشنایی با نحوه عملکرد مرورگرها و ساختار صفحات وب (مانند DOM) میتواند به شما در درک بهتر مفاهیم کمک کند.
توضیحات:
اگر به دنبال یادگیری یک مهارت کاربردی و پولساز در دنیای برنامهنویسی هستید، دوره آموزش Web Scraping و Automation با پایتون میتواند بهترین انتخاب برای شما باشد. این دوره توسط مجموعه سایبریونی طراحی و تهیه شده و به شما کمک میکند تا دادهها را بهصورت خودکار از وبسایتها جمعآوری کنید و با نوشتن رباتهای پیشرفته، فرآیندهای دستی و وقتگیر را اتوماتیک کنید.
در این دوره، شما از مفاهیم اولیه تا پیادهسازی پروژههای واقعی را یاد میگیرید و با ابزارها و کتابخانههای قدرتمندی مانند Beautiful Soup و Selenium آشنا میشوید. اگر میخواهید وب اسکریپینگ را از صفر یاد بگیرید و به یک متخصص تبدیل شوید، این دوره مخصوص شماست!
چرا باید وب اسکریپینگ و اتوماسیون را یاد بگیریم؟
در دنیای دیجیتال امروز، دسترسی به دادهها و تحلیل آنها اهمیت بسیار زیادی دارد. اما همیشه نمیتوانیم دادهها را به شکل آماده و ساختاریافته از اینترنت دریافت کنیم. وب اسکریپینگ به شما این امکان را میدهد که با نوشتن رباتهای پیشرفته، اطلاعات مورد نیاز خود را از سایتهای مختلف استخراج کنید.
از طرف دیگر، یادگیری اتوماسیون با پایتون به شما کمک میکند تا کارهای تکراری و وقتگیر را به صورت خودکار انجام دهید. این مهارتها میتوانند در حوزههای مختلفی مثل تحلیل داده، تجارت الکترونیک، بازاریابی دیجیتال و حتی در زندگی روزمره بسیار کاربردی باشند.
ویژگیهای این دوره:
-
جامع و پروژهمحور:
-
این دوره بهصورت گامبهگام طراحی شده و شما را از مفاهیم پایه تا پیادهسازی پروژههای واقعی همراهی میکند.
-
-
استفاده از ابزارهای بهروز:
-
در این دوره از ابزارهای قدرتمندی مثل Beautiful Soup و Selenium استفاده میکنیم. این ابزارها بهترین انتخابها برای انجام وب اسکریپینگ و اتوماسیون هستند.
-
-
پشتیبانی کامل:
-
شما میتوانید در طول دوره سوالات خود را از مدرس بپرسید و از بخش پرسش و پاسخ برای رفع مشکلات استفاده کنید.
-
-
مناسب برای تمام سطوح:
-
چه تازهکار باشید و چه تجربه برنامهنویسی داشته باشید، این دوره برای شما مناسب است.
-
-
گواهینامه معتبر:
-
در پایان دوره، پس از تکمیل پروژه نهایی، میتوانید گواهینامهای معتبر دریافت کنید و آن را به رزومه خود اضافه کنید.
-
سرفصلهای دوره Web Scraping و Automation با پایتون:
-
مقدمه و آشنایی با مفاهیم اولیه:
-
معرفی وب اسکریپینگ و کاربردهای آن
-
بررسی تفاوت بین وبسایتهای استاتیک و داینامیک
-
-
کار با Beautiful Soup:
-
استخراج دادهها از وبسایتهای ساده
-
یادگیری نحوه استفاده از المان های HTML برای دسترسی به دادهها
-
-
آشنایی با Selenium:
-
کار با مرورگرها و شبیهسازی رفتار کاربر
-
استخراج داده از وبسایتهای داینامیک
-
-
ساخت پروژههای واقعی:
-
طراحی رباتهای مختلف برای جمعآوری داده و اتوماسیون
-
پروژه نهایی: تکمیل یک فرم گوگل به صورت خودکار با ربات پایتون
-
مزایای شرکت در دوره Web Scraping و Automation با Python:
1. کاربردی و پولساز:
مهارت وب اسکریپینگ و اتوماسیون یکی از پرتقاضاترین مهارتها در بازار کار است. شما میتوانید با یادگیری این مهارتها:
-
دادههای مورد نیاز برای تحقیقات خود را به راحتی جمعآوری کنید.
-
به عنوان یک فریلنسر پروژه بگیرید و درآمد کسب کنید.
-
کارهای روزمره را اتوماتیک کنید و در زمان خود صرفهجویی کنید.
2. آموزش مبتنی بر پروژه:
در طول این دوره شما نهتنها مفاهیم را یاد میگیرید، بلکه آنها را در قالب پروژههای واقعی پیادهسازی میکنید. این کار باعث میشود یادگیری شما عمیقتر شود و آمادگی بیشتری برای ورود به دنیای واقعی داشته باشید.
3. دسترسی دائمی به محتوا:
با شرکت در این دوره، شما بهصورت دائمی به محتواهای آموزشی دسترسی خواهید داشت و میتوانید هر زمان که نیاز داشتید به ویدیوها و مطالب دوره مراجعه کنید.
4. پشتیبانی و گواهینامه:
تیم سایبریونی در کنار شماست تا در طول دوره مشکلات خود را برطرف کنید. همچنین گواهینامهای معتبر دریافت خواهید کرد که میتواند در رزومه یا پروفایل LinkedIn شما چشمگیر باشد.
این دوره برای چه کسانی مناسب است؟
-
کسانی که علاقهمند به جمعآوری داده و تحلیل آن هستند.
-
برنامهنویسانی که میخواهند مهارتهای خود را در زمینه اتوماسیون تقویت کنند.
-
کسانی که به دنبال ورود به بازار کار و کسب درآمد از پروژههای فریلنسری هستند.
-
دانشجویانی که برای پایاننامه یا تحقیقات علمی به دادههای خاص نیاز دارند.
پروژه نهایی دوره:
در پایان دوره، شما میتوانید با انجام پروژه نهایی مهارتهای خود را به چالش بکشید. این پروژه شامل طراحی یک ربات برای تکمیل خودکار یک فرم گوگل است. شما با انجام این پروژه میتوانید مطمئن شوید که تمام مفاهیم دوره را به خوبی یاد گرفتهاید و آنها را در عمل پیادهسازی کنید.
پشتیبانی و ارتباط با مدرس:
یکی از نقاط قوت این دوره، پشتیبانی کامل آن است. شما میتوانید سوالات خود را از مدرس دوره، بپرسید و مطمئن باشید که در مسیر یادگیری تنها نخواهید بود.
ثبتنام در دوره:
همین حالا به جمع دانشجویان این دوره بپیوندید و یادگیری یکی از پولسازترین مهارتهای برنامهنویسی را آغاز کنید. فرقی نمیکند هدف شما جمعآوری داده باشد یا اتوماتیک کردن کارهای تکراری، این دوره شما را به مقصد میرساند.
برای ثبتنام و اطلاعات بیشتر، کافی است روی دکمه "ثبت نام در دوره" کلیک کنید و اولین قدم را برای یادگیری وب اسکریپینگ و اتوماسیون بردارید!
◇◇◇◇◇
5
(۵)
واقعاً خفن بود این دوره! خیلی وقت بود دنبال چیزی بودم که توش Selenium رو کامل توضیح بده. کاش مثالهای فصل آخرش یه کم پیچیدهتر بود که بیشتر چالش داشته باشیم.
حسام مهرپرور
◇◇◇◇◇
4
(۴)
دوره خوبیه، مخصوصاً برای کسایی که تازه میخوان شروع کنن. من از فصل BeautifulSoup خیلی استفاده کردم. فقط یه چند قسمت ویدیوها یه کم طولانی بودن، ولی محتواشون ارزشش رو داشت.
مهسا مومنی
◇◇◇◇◇
5
(۵)
دوره رو شروع کردم و تا الان همه چی عالی بوده. خیلی خوبه که کدها کامل توضیح داده میشن.
الهام روحانی
◇◇◇◇◇
4
(۴)
واقعا لذت بردم از دوره. چیزی که خیلی جذاب بود، رویکرد عملی و پروژه محورشه. فقط اگه برای بعضی قسمتها، چکلیست مراحل کار رو هم میذاشتین، راحتتر بود.
علی تقی پور
◇◇◇◇◇
4
(۴)
دوره خیلی کامل و با جزئیات بود. یکی از بهترین نکاتش اینه که فایل همه کدهای نوشته شده قابل دانلوده تا خودمونم بتونیم اجراشون کنیم. فقط یکم صدا تو بعضی ویدیوها پایین بود ولی محتوا فوقالعادهست.
محمدرضا طلوعی