آموزش برنامه نویسی

به روز ترین مطالب آموزشی و متدلوژی های برنامه نویسی

آموزش برنامه نویسی

به روز ترین مطالب آموزشی و متدلوژی های برنامه نویسی

آموزشگاه تحلیل داده فعالیت رسمی خود را از سال 1380 در قالب آموزشگاه تخصصی نرم افزار آغاز نموده. این موسسه از همان ابتدای تأسیس با بهره مندی از استاید حرفه ای رشته های نرم افزار و بانک های اطلاعاتی ، فعالیت تخصصی خود را در زمینه آموزش برنامه نویسی و بانک های اطلاعاتی آغاز نمود و پس از گذشت اندک زمانی توانست در زمینه نرم افزار و شبکه بعنوان یکی از حرفه ای ترین موسسات ایران ظاهر شود. با توجه به اینکه مدیریت آموزشگاه شخصاً در رشته نرم افزار تحصیل کرده و سابقه طولانی در تحلیل و طراحی و پیاده سازی نرم افزار و بانک های اطلاعاتی دارند ، خط مشی کلی موسسه بر مبنای آموزش پایه ای ، کاربردی ، عملی و تخصصی نرم افزار بنا شده است.


آدرس : خیابان شریعتی بالاتر از ملک جنب بانک صادرات طبقه دوم واحد 7
همراه: 09123840871 تلفن: 88146323 - 88146330

۲ مطلب با کلمه‌ی کلیدی «آموزش داده کاوی و یادگیری ماشین» ثبت شده است

  • ۰
  • ۰

 

ماشین لرنینگ
ماشین لرنینگ

 

مطالعه نشان می‌دهد مدل‌های رایانه‌ای که فعل و انفعالات مولکولی را پیش‌بینی می‌کنند، قبل از اینکه بتوانند مکانیسم‌های اثر دارو را شناسایی کنند، نیاز به بهبود دارند. در طول چند دهه گذشته، آنتی بیوتیک های جدید بسیار کمی توسعه یافته اند، عمدتاً به این دلیل که روش های فعلی برای غربالگری داروهای بالقوه بسیار گران و زمان بر هستند. یک استراتژی جدید امیدوارکننده استفاده از مدل‌های محاسباتی است که راه بالقوه سریع‌تر و ارزان‌تری برای شناسایی داروهای جدید ارائه می‌دهد.

یک مطالعه جدید از MIT پتانسیل و محدودیت های یکی از این روش های محاسباتی را نشان می دهد. با استفاده از ساختارهای پروتئینی تولید شده توسط یک برنامه هوش مصنوعی به نام AlphaFold، محققان بررسی کردند که آیا مدل‌های موجود می‌توانند به دقت تعامل بین پروتئین‌های باکتریایی و ترکیبات ضد باکتریایی را پیش‌بینی کنند. اگر چنین است، آنگاه محققان می‌توانند از این نوع مدل‌سازی برای انجام نمایشگرهایی در مقیاس بزرگ برای ترکیبات جدیدی که پروتئین‌های قبلاً هدف‌گذاری نشده بودند، استفاده کنند. این امر توسعه آنتی‌بیوتیک‌هایی را با مکانیسم‌های اثر بی‌سابقه‌ای امکان‌پذیر می‌کند.

با این حال، محققان به رهبری جیمز کالینز، پروفسور ترمیر مهندسی پزشکی و علوم در موسسه مهندسی و علوم پزشکی MIT (IMES)و دپارتمان مهندسی بیولوژیک دریافتند که این مدل‌های موجود برای این منظور عملکرد خوبی ندارند.

کالینز می‌گوید: «پیش‌رفت‌هایی مانند AlphaFoldدر حال گسترش امکانات برای تلاش‌های کشف داروی سیلیکونی است، اما این پیشرفت‌ها باید با پیشرفت‌های اضافی در جنبه‌های دیگر مدل‌سازی که بخشی از تلاش‌های کشف دارو هستند همراه شود. "مطالعه ما هم از توانایی های فعلی و هم محدودیت های فعلی پلت فرم های محاسباتی برای کشف دارو صحبت می کند."

در مطالعه جدید خود، محققان توانستند عملکرد این نوع مدل‌ها را که به شبیه‌سازی اتصال مولکولی معروف هستند، با استفاده از تکنیک‌های یادگیری ماشینی برای اصلاح نتایج بهبود بخشند. به گفته محققان، با این حال، برای استفاده کامل از ساختارهای پروتئینی ارائه شده توسط AlphaFold، بهبود بیشتری لازم است.

برهمکنش های مولکولی

مطالعه جدید بخشی از تلاشی است که اخیرا توسط آزمایشگاه کالینز به نام پروژه آنتی بیوتیک-AI راه اندازی شده است که هدف آن استفاده از هوش مصنوعی برای کشف و طراحی آنتی بیوتیک های جدید است.

AlphaFold، یک نرم افزار هوش مصنوعی توسعه یافته توسط DeepMind و Google، ساختارهای پروتئینی را از توالی اسید آمینه آنها به طور دقیق پیش بینی کرده است. این فناوری در میان محققانی که به دنبال آنتی‌بیوتیک‌های جدید هستند، هیجان ایجاد کرده است و امیدوارند بتوانند از ساختارهای AlphaFold برای یافتن داروهایی که به پروتئین‌های باکتریایی خاص متصل می‌شوند، استفاده کنند.

برای آزمایش امکان سنجی این استراتژی، کالینز و دانشجویانش تصمیم گرفتند برهمکنش 296 پروتئین ضروری از E. coliرا با 218 ترکیب ضد باکتریایی از جمله آنتی بیوتیک هایی مانند تتراسایکلین ها مطالعه کنند.

محققان نحوه تعامل این ترکیبات با پروتئین های E. coliرا با استفاده از شبیه سازی های اتصال مولکولی تجزیه و تحلیل کردند، که پیش بینی می کند دو مولکول بر اساس شکل ها و خواص فیزیکی چقدر به یکدیگر متصل می شوند.

این نوع شبیه‌سازی با موفقیت در مطالعاتی که تعداد زیادی از ترکیبات را در برابر یک هدف پروتئینی غربال می‌کنند، برای شناسایی ترکیباتی که بهترین اتصال را دارند، استفاده شده است. اما در این مورد، جایی که محققان سعی داشتند بسیاری از ترکیبات را در برابر بسیاری از اهداف بالقوه غربال کنند، پیش‌بینی‌ها از دقت کمتری برخوردار بودند.

با مقایسه پیش‌بینی‌های تولید شده توسط این مدل با برهم‌کنش‌های واقعی برای 12 پروتئین ضروری، که از آزمایش‌ها به دست آمد، محققان دریافتند که این مدل دارای نرخ‌های مثبت کاذب مشابه نرخ‌های مثبت واقعی است. این نشان می دهد که این مدل قادر به شناسایی مداوم تعاملات واقعی بین داروهای موجود و اهداف آنها نیست.

محققان با استفاده از اندازه‌گیری که اغلب برای ارزیابی مدل‌های محاسباتی به کار می‌رود، معروف به auROC، عملکرد ضعیفی هم پیدا کردند. کالینز می‌گوید: << با استفاده از این شبیه‌سازی‌های اتصال مولکولی استاندارد، مقدار auROC تقریباً 0.5 به دست آوردیم که اساساً نشان می‌دهد که بهتر از حدس تصادفی نیست! >>

محققان با استفاده از این رویکرد مدل سازی با ساختارهای پروتئینی که به طور تجربی تعیین شده اند، به جای ساختارهای پیش بینی شده توسط AlphaFold، نتایج مشابهی دریافت کردند.

کالینز می‌گوید: «به نظر می‌رسد که AlphaFoldتقریباً به خوبی ساختارهای تعیین‌شده تجربی را ارائه می‌دهد، اما اگر می‌خواهیم از AlphaFold به طور مؤثر و گسترده در کشف دارو استفاده کنیم، باید کار بهتری با مدل‌های اتصال مولکولی انجام دهیم.»

پیش بینی های بهتر

یکی از دلایل احتمالی عملکرد ضعیف مدل این است که ساختارهای پروتئینی وارد شده به مدل ثابت هستند، در حالی که در سیستم‌های بیولوژیکی، پروتئین‌ها انعطاف‌پذیر هستند و اغلب تنظیمات خود را تغییر می‌دهند.

برای تلاش برای بهبود میزان موفقیت رویکرد مدل‌سازی خود، محققان پیش‌بینی‌ها را از طریق چهار مورد اضافه انجام دادند:

وونگ می‌گوید: (مدل‌های یادگیری ماشین نه تنها اشکال، بلکه خواص شیمیایی و فیزیکی فعل و انفعالات شناخته‌شده را نیز یاد می‌گیرند و سپس از آن اطلاعات برای ارزیابی مجدد پیش‌بینی‌های اتصال استفاده می‌کنند. ما متوجه شدیم که اگر بخواهید تعاملات را با استفاده از این مدل‌های اضافی فیلتر کنید، می‌توانید نسبت بیشتری از مقدار مثبت واقعی به مثبت کاذب را دریافت کنید.)

به گفته محققان، با این حال، قبل از استفاده از این نوع مدل‌سازی برای شناسایی موفقیت‌آمیز داروهای جدید، هنوز به بهبود بیشتری نیاز است. یکی از راه‌های انجام این کار، آموزش مدل‌ها بر روی داده‌های بیشتر، از جمله ویژگی‌های بیوفیزیکی و بیوشیمیایی پروتئین‌ها و ترکیب‌بندی‌های مختلف آن‌ها، و اینکه چگونه این ویژگی‌ها بر اتصال آن‌ها با ترکیبات دارویی بالقوه تأثیر می‌گذارند، می باشد.

پروفسور روی کیشنی، می گوید: این مطالعه به ما امکان می دهد بفهمیم که تا چه اندازه از تحقق پارادایم های کامل مبتنی بر یادگیری ماشینی برای توسعه دارو فاصله داریم و معیارهای تجربی و محاسباتی فوق العاده ای را برای تحریک و هدایت و هدایت پیشرفت به سمت این چشم انداز آینده ارائه می دهد.

کالینز می‌گوید با پیشرفت‌های بیشتر، دانشمندان ممکن است بتوانند از قدرت ساختارهای پروتئینی تولید شده توسط هوش مصنوعی برای کشف نه تنها آنتی‌بیوتیک‌های جدید، بلکه داروهایی برای درمان انواع بیماری‌ها، از جمله سرطان، استفاده کنند. او می‌گوید:(ما خوش‌بین هستیم که با بهبود رویکردهای مدل‌سازی و گسترش قدرت محاسباتی، این تکنیک‌ها در کشف دارو اهمیت فزاینده‌ای پیدا می‌کنند. با این حال، ما راه درازی برای دستیابی به پتانسیل کامل در کشف داروی سیلیکو داریم.)

  • افشین رفوآ
  • ۰
  • ۰

چرا در دوره آموزش داده کاوی با پایتون شرکت کنیم؟

در بیان ضرورت آموزش داده کاوی همین نکته بس که با توجه به حجم عظیم داده هایی که این روزها ما را احاطه کرده است، یکی از مهم‌ترین دغدغه‌های هر کسب و کاری، کسب آگاهی نسبت به دانش با ارزش علم داده است تا بتوانند با استفاده از این دانش به بینشی دست یابند که از آن برای تصمیم گیری های سازمانی استفاده کنند. برای بررسی داده ها و دستیابی به الگوهای پنهان میان آنها باید با فرآیندها، تکنیک‌ها و ابزار داده کاوی آشنا باشیم و به همین دلیل است که این روزها موضوعات مرتبط با آموزش داده کاوی و ابزار آن با استقبال بسیار خوبی در میان جامعه علمی و صنعتی کشور مواجه شده است.

از جمله ابزارهای مطرح در آموزش داده کاوی می‌توان به نرم افزارهای رپیدماینر، وکا و زبان‌های برنامه‌ نویسی همچون R و پایتون اشاره کرد. در این میان، زبان برنامه نویسی پایتون یک زبان چند منظوره است که طراحی آن با هدف سهولت در خواندن و نوشتن این زبان انجام گرفته است. زبان برنامه نویسی پایتون یکی از مهمترین، قوی ترین و پر کاربرد ترین زبان های برنامه نویسی حال حاضر است که نظر مخاطبین مختلفی را به خود جلب کرده است. یکی از مهمترین حوزه های کاربرد زبان برنامه نویسی پایتون در علوم داده و پردازش های آکادمیک یا حتی پیشرفته در این حوزه است.

 

چرا داده کاوی

داده کاوی فرآیندی است که برای تبدیل داده های خام به اطلاعات مفید مورد استفاده قرار می گیرد. شرکت ها برای کسب اطلاعات بیشتر راجع به مشتریان و توسعه استراتژی های بازاریابی خود، افزایش فروش و کاهش هزینه ها می توانند از نرم افزارهایی استفاده کنند که الگوهای موجود در دسته های بزرگ داده را مشخص کنند. فرایند داده کاوی به جمع آوری موثر داده ها، ذخیره و پردازش کامپیوتری آنها وابسته است.

 

نرم افزار داده کاوی و ذخیره داده ها

برنامه های داده کاوی، روابط و الگوهای موجود در داده ها را بر اساس درخواست کاربر مورد ارزیابی و تحلیل قرار می دهند. برای مثال، یک شرکت می تواند از نرم افزار داده کاوی برای ایجاد کلاس های اطلاعاتی استفاده کند. برای درک بهتر، رستورانی را تصور کنید که از داده کاوی استفاده می کند تا زمان مناسب برای ارائه پیشنهادهای خاص را مشخص کند. برای این کار از اطلاعات جمع آوری شده استفاده می کند و کلاس هایی را بر اساس زمان مراجعه مشتری ها و چیزهایی که سفارش داده اند ایجاد می کند. در دیگر موارد، کارشناسان داده کاوی دسته هایی از اطلاعات را بر اساس روابط منطقی پیدا می کنند یا از الگوهای تجمعی و ترتیبی استفاده می کنند تا اطلاعاتی را راجع به الگوهای رفتاری مشتری بدست آورند.

ذخیره داده ها بخش مهمی از داده کاوی را تشکیل می دهد. ذخیره داده زمانی صورت می گیرد که شرکت ها داده های خود را در یک برنامه یا پایگاه داده متمرکز می کنند. با استفاده از چنین پایگاه داده هایی، یک سازمان می تواند امکان دسترسی به بخش هایی از داده ها را برای کاربران خاص فراهم کند تا این کاربران بتوانند داده ها را مورد تحلیل و استفاده قرار دهند.

 

مثالی از داده کاوی

فروشگاه های خواربار فروشی از جمله شناخته شده ترین گروه هایی هستند که تکنیک های داده کاوی را مورد استفاده قرار می دهند. بسیاری از سوپرمارکت ها کارت های رایگانی را در اختیار برخی از مشتری های خود می گذارند تا امکان خرید اجناس با قیمت های تحفیف خورده را برای آنها فراهم کنند. کارت ها این امکان را برای مدیر فروشگاه فراهم می کند تا ببیند که مشتری ها چه اجناسی را، در چه زمانی و با چه قیمتی خریداری کرده اند. پس از ارزیابی داده ها، فروشگاه می تواند از داده ها استفاده کند و کوپن هایی را بر اساس عادت های خرید مشتریان به آنها پیشنهاد دهد و راجع به اینکه چه زمان اجناس را با قیمت کامل و چه زمان با تخفیف بفروشد نیز تصمیم گیری کند.

 

یادگیری ماشین چیست

یادگیری ماشین گرایشی از هوش مصنوعی و به این معنی است که یک برنامه کامپیوتری می تواند بدون دخالت انسان داده های جدید را دریافت کرده و خود را با آنها سازگار کند و همین تعریف ضرورت آموزش یادگیری ماشین را برای ما مشخص می کند. یادگیری ماشین می تواند برای تجزیه اطلاعات عظیم و کمک به فرایند تصمیم گیری مفید باشد و در زمینه های مختلفی همچون سرمایه گذاری، تبلیغات، کشف کلاهبرداری، سازماندهی اخبار و ... مورد استفاده قرار بگیرد.

 

عملکرد یادگیری ماشین

چگونگی عملکرد یادگیری ماشین را می توان با ارائه مثالی در فضا مالی شرح داد. پیشتر، سرمایه گذاران بازارهای تضمینی همچون پژوهشگران مالی، تحلیلگران، مدیران دارایی و سرمایه گذاران اختصاصی در اطلاعات مربوط به شرکت های مختلف در سراسر جهان جستجو می کردند تا بتوانند تصمیم گیری های سودمندی را در زمینه سرمایه گذاری اتخاذ کنند. با این وجود، گاهی اطلاعات مربوط به یک شرکت خاص، تنها در اختیار کارمندان آن قرار می گرفت و افراد خارج از شرکت به آن دسترسی نداشتند؛ علاوه بر این، افراد بسیاری وجود دارند که می توانند این اطلاعات را جمع آوری و پردازش کنند؛ اما این نقطه، آغاز استفاده از یادگیری ماشین است.

یک شرکت مدیریت دارایی ممکن است از یادگیری ماشین در زمینه پژوهش و تحلیل سرمایه گذاری خود استفاده کند. به مدیر دارایی گفته می شود که تنها بر روی سهام معدن سرمایه گذاری کند. مدل ساخته شده در سیستم، وب را اسکن می کند و تمامی انواع اطلاعات مربوط به شرکت های تجاری، صنایع، شهرها و کشورها را جمع آوری می کند که این اطلاعات جمع آوری شده دیتاست را شکل می دهد. مدیران دارایی و پژوهشگران شرکت قادر نخواهند بود که با استفاده از نیروهای انسانی خود به اطلاعات موجود در دیتاست دسترسی پیدا کنند. پارامترهای ساخته شده در مدل، تنها داده های مربوط به شرکت های معدن، سیاست های تنظیم شده برای بخش حفاری و رویدادهای سیاسی در کشورهای انتخابی از دیتاست هستند.

 

آموزش داده کاوی در آموزشگاه تحلیل داده

در دوره آموزش داده کاوی، چگونگی اجرا داده کاوی و یادگیری ماشین با استفاده از زبان پایتون برای دانشجویان بصورت مفصل شرح داده می شود. به دانشجویان عزیز توصیه می شود که برای شرکت در دوره، آشنایی کلی با اصول و مفاهیم داده کاوی داشته باشند (اگرچه در صورت نیاز، این مفاهیم با جزئیات بیشتری در طول دوره تشریح خواهند شد). تئوری مطالب هر بخش در ابتدای هر درس گفته می شود و سپس الگوریتم های مربوطه به صورت عملی در محیط پایتون پیاده سازی خواهند شد. شرکت کنندگانی که در این دوره ثبت نام می کنند، در محیطی دوستانه و در کنار یکدیگر، به کمک مدرس دوره و با روش تعاملی، تمامی پروژه ها و برنامه های نوشته شده در کلاس را "خودشان" پیاده سازی می کنند.

 

مخاطبان دوره

  1.  برنامه نویسان و کاربران سیستم‌ها و راهکارهای داده کاوی و تحلیل داده
  2.  توسعه دهندگان سامانه های هوش تجاری BI و Data Mining
  3.  دانشجویان، پژوهشگران و کارشناسان در حوزه‌ی داده کاوی و بیگ دیتا
  4.  کارشناسان و علاقه مندان به داده کاوی که می خواهند پروژه دانشجویی یا پروژه سازمانی خود را به کمک راهکارهای هوش تجاری اوراکل اجرا و پیاده سازی کنند

پیشنیاز دوره

  1.  دوره مقدماتی پایتون برای کاربردهای علم داده
  2.  مفاهیم داده کاوی و یادگیری ماشین

اهداف دوره

آموزش نحوه پیاده سازی پروژه های داده کاوی و یادگیری ماشین در نرم افزار پایتون بصورت کاربردی

 

سرفصل دوره آموزش داده کاوی و یادگیری ماشین

1. مقدمه ای بر علم داده

  1. تاریخچه

  2. چگونگی دستیابی به نتایج مناسب

 

2. مقدمه ای بر یادگیری ماشین

  1. مفاهیم، کاربردها و انواع روش های یادگیری ماشین

  2. مفاهیم Overfitting & Underfitting

  3. مفاهیم bias and variance problems

  4. Regularization & Feature selection

 

3. پاکسازی و پیش پردازش داده ها

  1. شیوه برخورد با missing values

  2. مواجهه با داده های از نوع طبقه بندی Categorical data))

  3. انتخاب ویژگی های مرتبط با هدف یادگیری

  4. Encoding class labels

  5. مشکلات هم مقیاس نبودن داده ها و انواع روش های هم مقیاس کردن ویژگی ها

  6. کاهش پیچیدگی مدل از طریق تابع هدف جریمه (L1 and L2 regularization )

 

4. یادگیری نظارت شده

  • Classification
  1. کار با دیتاست های نمونه

  2. K-nearest Neighbors

  3. Perceptron classifier

  4. Linear models

  5. Naive Bayes Classifier

  6. Decision Trees

  7. Random forests

  8. SVM

  9. Kernelized Support vector machines

  10. Logistic Regression

 

  • Pipelines

 

  • Regression
  1. نمایش گسترده دیتاست برای کشف همبستگی بین فیچرها و تابع هدف

  2. رویکردهای مختلف برای پیاده سازی رگرسیون خطی

    1. معرفی Simple Linear Regression

    2. معرفی Multiple Linear Regression

  3. کاهش تاثیر نویز در مدل رگرسیون

  4. ارزیابی مدل رگرسیون

  5. آموزش Non-Linear Regression

 

5. کاهش ابعاد

  1. تکنیک کاهش ابعاد برای داده های غیر نظارت شدهPrincipal Component Analysis (PCA)

  2. تکنیک کاهش ابعاد برای داده های نظارت شدهLinear Discriminant Analysis (LDA)

  3. Nonlinear dimensionality reduction via Kernel Principal Component Analysis (KPCA)

 

6. یادگیری غیر نظارت شده

  1. Clustering

  2. K_means clustering

  3. Agglomerative clustering

  4. DBSCAN clustering

  5. مقایسه انواع الگوریتم های خوشه بندی

  6. bottom-up approach to building hierarchical clustering trees

 

7. الگوهای مکرر و قواعد انجمنی

 

8. اعتبارسنجی مدل و بهبود

  1. Cross-Validation

  2. Fine-tuning machine learning models via grid search

  3. Obtain unbiased estimates of a model's performance

  4. بررسی مشکلات رایج در مسائل یادگیری ماشین

  5. ارزیابی مدل پیش بینی با معیارهای مختلف

 

با دوره آموزش داده کاوی و یادگیری ماشین در آموزشگاه تحلیل داده همراه شما هستیم..

  • افشین رفوآ