ویدئوهای مرتبط با پردازش تصاویر هوایی (از سال ۲۰۱۷ به بعد)

در ادامه‌ی این نوشته لینک ویدئوهای مرتبط با پردازش تصاویر هوایی‌ رو که می‌بینم و احیانا خلاصه‌ای ازشون رو منتشر خواهم کرد.

[طبیعتا این نوشته تا مدتی به روز خواهد شد.]

Charlotte Weil Dams Hackathon 3min Prez – GeoForGood 2018

این یک ویدئو ۳ دقیقه‌ای است در مورد کاربرد یادگیری عمیق در پیدا کردن محل سدها در تصاویر ماهواره‌ای.

در ارتباط با همین ویدئو بالا پست Mediom زیر نوشته شده:

Can we locate dams from space?

لینک گیت‌هاب پروژه:

https://github.com/charlottegiseleweil/dams

وبلاگ شخصی ارائه دهنده:

Charlotte Gisèle Weil

Hands-on Satellite Imagery Analysis | Scipy 2019 Tutorial | Samapriya Roy, Sara Safavi

همین طور که از عنوانش هم مشخصه این ارائه برای سال ۲۰۱۹ است و تعدادی ابزارpython که می‌شه برای کار پردازش تصاویر ماهواره‌ای استفاده کرد رو معرفی می‌کنن.

اولین نکته‌ای که بهش اشاره می‌کنن، مثل خیلی از ارائه‌های دیگه، اینه که تصاویر ماهواره‌ای معمولا بیشتر از ۳ کانال RGB عکس‌های عادی رو دارن.

توی تصاویر ماهواره‌ای وقتی بحث رزولیشن می‌کنیم داریم از این چهارتا رزولوشن صحبت می‌کنیم:

این دوتا ابزار زیر رو هم معرفی می‌کنه که به عنوان ابزارهای پایه برای کتاب‌خونه‌هایی که باهاشون کار می‌کنه از اون‌ها استفاده شده و همچنین می‌گه که OpenCV نمی‌تونه با تصاویر ۴ کاناله و .. کار کنه و اون‌ها رو نمایش بده! چرا و چطور؟! یادش نمیاد!

GDAL:

The Geospatial Data Abstraction Library is a computer software library for reading and writing raster and vector geospatial data formats.

PROJ:

PROJ is a library for performing conversions between cartographic projections.
از سه تا کتابخونه‌ی numpy، matplotlib و resterio توی ارائه بالا استفاده شده که این resterio  رو من تو خیلی از ارائه‌های دیگه هم اسمش رو شنیدم.
پینشهاد من اینه که یک سری به گیت‌هاب ارائه بزنید و وقتتون رو با دیدن خود ویدئو تلف نکنید، هر جیزی که لازم باشه بدونید توی گیت‌هاب گفته شده.

لینک گیت‌هاب پروژه:

https://github.com/sarasafavi/remote-sensing-with-python

وبلاگ شخصی ارائه دهنده:

Sara Safavi

Landuse Classification from Satellite Imagery using Deep Learning

توی ویدئو بالا یک پروژه‌ی segmentation روی تصاویر ماهواره‌ی Sentinel-2 به منظور پیدا کردن مزارع کشاوری داریم.
اولین نکته اینکه درسته که دیتاست رو از روی تصاویر ماهواره‌ی Sentinel-2 که به رایگان در دسترس هستن درست کردن، اما برای ایجاد ground through‌ از مجوعه تصاویر یک شرکت دیگه استفاده کردن که من نمی‌دونم در دسترس هستن یا نه.
همچنین مراحل کار تا جایی که برام مهم بوده اینطوری هست که در مرحله‌ی اول میان یک clasification انجام می‌دن تا ببینن تصویری که دارن ابری هست یا نه، برای این کار ۵۰۰۰تا برش از عکس‌های گرفته شده توسط ماهواری‌ی Sentinel-2 رو با نسبت ۵۰٪ ابری و نیمه‌ی دیگه و بدون ابر جدا می‌کنن و بعد با یک دیتاست از سایت Kaggel (شامل ۴۰۰۰۰تا عکس که ۳۰٪ اون‌ها ابری هستن) ترکیب می‌کنن و شبکه‌ی Rest-net 50 رو روی اون آموزش می‌دن.
مرحله‌ی بعد کار segmentation هست که با شبکه‌ی U-Net انجام می‌شه. نکته‌ی خاص دیگه‌ای این ویدئو نداره.

لینک دیتاست سایت kaggle:

Planet: Understanding the Amazon from Space

Using deep learning on Satellite imagery to get a business edge

این‌ها خیلی باحالن با R‌ کار کردن:) به هر سوی ID توییتر ارائه دهنده @marekrog هست، اطلاعات بدرد بخوری که می‌ده:
– بهترین دقت تصویر برداری تصاویر ماهواره‌ای که برای عموم مردم در دسترس‌اند در حال حاظر ۲۵ سانتی‌متر به ازای هر پیکسل هست.
– یک سری ماهواره داریم که تا دو بار در روز از یک ناحیه عکس می‌گیرن که این مدت زمان فاصله‌ي بین عکس برداری از هر منطقه بیشتر از هر چیز روی حذف تصاویر ابری تاثیر داره.
بقیقه‌ی ارائه یکی دوتا پکیچ R‌برای پردازش تصاویر هوایی معرفی می‌کنه که آخه R؟ :))

Using Convolutional Networks and Satellite Imagery to Identify Patterns

ویدئو برای سال ۲۰۱۷ است که در مقیاس پردازش تصویری قدیمی حساب می‌شه، اما نکته‌ی مثبتش اینه که کد و دیتاستش توی githubشون موجوده.

نقطه‌ی شروع کارشون این بوده که خونه‌ها و مناطق مسکونی روی محیط اطرافشون تاثیر می‌گذارن و بلعکس، به عنوان مثال محیط اطراف ۱ درجه فارنهایت گرم بشه بین ۱.۵٪ تا ۲٪ میزان انرژی‌ای که برای سرد کردن خونه در تابستون مصرف می‌شه افزایش پیدا می‌کنه.

یک Land use clasification ایجاد می‌کنن برای برسی مساله‌ی بالا و اینکه در آینده کجا چه چیزی بسازن؟ خونه؟ پارک؟

دیتاست deep-sat 4/6 رو معرفی می‌کنه و می‌گه توی این تحقیق ازش استفاده کردن که شامل 400K عکس RGB + NIR با اندازه‌ی 28×28 و رزولوشن 1m/pix است.

دیتاست بالا موارد زیر رو شامل می‌شه:

barren land, trees, grassland, roads, buildings and water bodies

ویژگی‌های دیتاستی که خودشون درست کردن و لینک به ابزارها توی تصویر زیر اومده:

این دوتا ابزاری که توی تصویر بالا اومده به نظر می‌رسه ارزش بررسی دارن، ظاهرا به درد ساختن دیتاست می‌خورن.

شبکه‌های عصبی‌ای که استفاده کردن هم VGG-16 و Restnet-15 بوده که اول روی دیتاست deep-sat 4/6 اون‌ها رو train کردن و بعد رفتن سراغ تکنیک transfer learning روی دیتاست خودشون.

چیز جالب دیگه‌ای که مطرح می‌کنه اینه که به عنوان مثال یک بار اومدن شبکه‌ی عصبی رو روی تصاویر شهر برلین آموزش دادن و بعد برای نقاط دیگه‌ی همون شهر استفاده کردن و یک بار مثلا شبکه‌ای که روی تصاویر برلین آموزش داده شده رو روی شهر رم تست کردن و نتیجه این بوده که دقت کار اومده پایین که به نظر من تا حدی طبیعیه چون هر شهر ساختار و بافت متفاوتی داره. مثلا ما توی شیراز همه سقف‌ها مسطح و ایزوگام، ولی در شمال سقف‌ها رو شیب‌دار می‌سازن.

مقاله‌ش ارزش خوندن داره چون یک بخشی از سوال بالا رو جواب می‌ده.

لینک گیت‌هاب:

https://github.com/adrianalbert/urban-environments

مقاله‌ی مرتبط با همین ارائه:

Using convolutional networks and satellite imagery to identify patterns in urban environments at a large scale

2019Deep Transfer Learning for Land Cover Classification on Open Multispectral Satellite Imagery

این یکی ارائه چیز ارزشمندیه به دو دلیل، یکی چون از fast.ai استفاده کردن و تکنیکشون transfer learning بوده و یکی دیگه اینکه از دیتاست‌های public‌ استفاده کردن.

بحث دیگه‌ای هم که می‌کنه اینه که تصاویر ماهواره‌ای معمولا بیشتر از ۳تا کانال RGB‌ رو دارن و برای transfer learning زدن روی مدل‌های معمولی که برای تصاویر RGB‌ ساخته شدن یک مقداری مشکل داریم.

به نظرم سوال بالا قطعا ارزش بررسی داره.

من این پست رو توی فروم سایت fast.ai‌ در همین زمینه پیدا کردم: How change layers pre-trained model wihout using Learner

ارائه دهنده این ابزار‌ها رو هم برای کار ری تصاویر ماهواره‌ای معرفی می‌کنه که چون زمان ارائه سال ۲۰۱۹ است بررسی کردنشون خالی از لطف نخواهد بود.

علت استفاده از Fast.ai‌ ‌رو اینطور می‌گه که توی Fast.ai نسخه‌ی جدیدی از Rest-net معرفی شده که تعداد کانال‌های ورودی تصویر رو شما هر چه قدر که می‌خوای می‌تونه باشه!

همچنین ارائه دهنده به این بخش از آموزش‌های Fast.ai‌ اشاره می‌کنه که جدید‌ترین روش data augmentation‌ای هست که توی fast.ai‌موجوده و این‌ها استفاده کردن:

در بین مقاله‌هایی که ارائه دهنده بهشون اشاره می‌کنه مقاله‌ی پایین جالبه، این‌ها کل تصاویری بدون ابری که در طول یک سال از یک ناحیه داشتن رو بر می‌دارن و برای آموزش شبکه‌ی عصبیشون استفاده می‌کنن، شبکه‌ی عصبی‌ای که طراحی کردن ساختار جالبی داره.

دوتا موضوع دیگه‌ای که ارائه دهنده توی دقیقه‌ی ۱۹ الی ۲۰ درمورد اون‌ها صحبت می‌کنه اینه که مساله‌ی انتخاب تابع lost و همچنین با چه فرمولی کلاس‌ هر پیکسل رو مشخص کنیم از اون انتخاب‌هایی هست که هنوز یک راه حل کلی و استاندارد شده براش معرفی نداریم و بازی کردن با این پارامترها می‌تونه توی دقت تاثیرگذار باشه.

در پرسش و پاسخ انتهای ویدئو هم یکی می‌پرسه برای استفاده از تصاویر با رزولوشن مختلف چه کاری انجام دادید که می‌گه همون resampeling معمولی، این بخش هم ارزش تحقیق و وقت گذاشتن داره.

 

You may also like