BI- گروه هوش تجاری ایران 
عنوان گروه یا کانال:

BI- گروه هوش تجاری ایران


توضیحات: لینک گروه هوش تجاری https://telegram.me/joinchat/BLcX0gvQVDl-OGvQN8yIBQ
شناسه: @
تعداد اعضا: 675
جهان ۵۰۸۳۱۰

گویای ذکر است که شما از رگرسیون خطی هم می تونید استفاده کنید فقط کافیه feature هاتون رو به صورت عددی انتخاب کنید برای مثال میزان خرید در سال، میزان خرید در ماه، سن افراد و جنسیت هم می تونید عدد۱ به عنوان زن و عدد ۲ به عنوان مرد انتخاب کنید سپس یک linear regression روش اعمال کنید که اگر خواستید بگید کدهای این هم در اختیارتون قرار بدم من این الگوریتم با دو روش یکی براساس numpy و دیگری براساس tensorflow بر روی دو دیتاست پیاده سازی کردم. و پیش بینی هم براساسش انجام دادم.
سلام وقت بخیر...تقریباً همین کارو من هم انجام دادم ولی حالا سوالم اینه که اگر بخواهیم که اونو به دسته ها و کاتگوری هایی مثل ورزشی و اجتماعی و.... لیبل بزنیم برای اینکار هم کدی دارین و یا راه حلی میتونید بگید...و اینکه اگه خواهش کنم میتونید اون پیاده سازی که گفتید رو برام پی وی بفرستینش...
سپهرار ۵۲۶۷۲۵

سلام وقت بخیر...تقریباً همین کارو من هم انجام دادم ولی حالا سوالم اینه که اگر بخواهیم که اونو به دسته ها و کاتگوری هایی مثل ورزشی و اجتماعی و.... لیبل بزنیم برای اینکار هم کدی دارین و یا راه حلی میتونید بگید...و اینکه اگه خواهش کنم میتونید اون پیاده سازی که گفتید رو برام پی وی بفرستینش...
بله حتما
جهان ۵۰۸۳۱۰

بله حتما
مچکرم🥀
سوره ۲۵۶۸۶۰

توی پی وی براتون پیاده سازیش هم می فرستم 😊
میشه لطفا برا من هم بفرستید .مچکرم
سپهرار ۵۲۶۷۲۵

سپهرار ۵۲۶۷۲۵

زمانی که اجرا کردید باید خروجی مثل این رو بده . موفق باشید
امیرهمایون ۸۶۹۴۸

تفاوت دو روش
1:Discriminative
2:Generative
در روش اول هدف یادگیری مختصات یک خط ؛صفحه و یا هرچیز دیگری که بشود کلاس هارو از هم جدا کرد می باشد برای مثال ما در logistic regression مختصات خطی رو یاد میگرفتیم. و در SVM خطی که بیشترین margin یا حاشیه را با داده های دو یا چند کلاس داشته باشد یاد می گرفتیم سپس برای این که بفهمیم برچسب داده ی تست ما چی هست کافی بود احتمال
P(data|c)
رو حساب کنیم و کلاسی که داده در آن بیشترین احتمال رو دارد به عنوان برجسب کلاس داده در نظر بگیریم
اما در روش دوم. بر اساس احتمال خود داده و کلاس داده ها این عمل رو انجام می دهیم. برای مثال در Naive bayes
ما احتمال داده تست و احتمال کلاس رو در نظر می گرفتیم. در GMM نیز همین کار رو بر روی داده ها انجام میدادیم که ابتدا داده ها را کلاستر بندی می کردیم که این کار براساس توزیع نرمال انجام می شد و سپس احتما داده تست را نسبت به این کلاسترها محاسبه میکردیم. #نکته در این روش ها ما هیچ خط ، صفحه و یا ... رو یاد نمیگیریم. تنها براساس توزیع داده ها احتمال زیر را حساب میکنیم.
P(data,C)
@Machine_learn
سلام. وقت بخیر. ببخشید توی داده‌کاوی با پایتون پیش‌پردازش رو هم با کد نویسی انجام میدین؟ مثل نرمالسازی یا گسسته‌سازی attribure ها ؟
سپهرار ۵۲۶۷۲۵

سلام. وقت بخیر. ببخشید توی داده‌کاوی با پایتون پیش‌پردازش رو هم با کد نویسی انجام میدین؟ مثل نرمالسازی یا گسسته‌سازی attribure ها ؟
بله من خودم چون زیاد از توابع استفاده نمیکنم این کار رو میکنم ولی شما می تونید از توابع آماده هم استفاده کنید. که هم نرمالسازی و هم پیش پردازش ها رو در حد محدودی برای شما انجام بدن
امیرهمایون ۸۶۹۴۸

سپهرار ۵۲۶۷۲۵

پیاده سازی و داده های مربوط به این فایل
علی اكبر ۵۴۱۵۸

📕⁣دوره پیشرفته هوش تجاری اوراکل

مدرس: محمد عالیشاهی
شروع از 31 فروردین
مدت:35 ساعت
🎉10درصدتخفیف برای اعضاء گروه هوش تجاری 

ثبت نام:@BIRegister

⁣@BIMining
📕⁣دوره پیشرفته هوش تجاری اوراکل

مدرس: محمد عالیشاهی
شروع از 31 فروردین
مدت:35 ساعت
🎉10درصدتخفیف برای اعضاء گروه هوش تجاری

ثبت نام:@BIRegister

⁣@BIMining
ساینا ۱۰۷۹۴۰

سلام خسته نباشید من واسه پایان نامه دارم رو یه داده شیمیایی بیولوژیکی کار میکنم - از دوستان کسی میتونه کمک کنه که بتونم داده ها رو اماده کنم واسه وارد کردن به وکا یا رپیدماینر و داده کاوی اگه کسی هست ممنون یه پیام بده
اكرم ۷۹۱۰۸

سلام خسته نباشید من واسه پایان نامه دارم رو یه داده شیمیایی بیولوژیکی کار میکنم - از دوستان کسی میتونه کمک کنه که بتونم داده ها رو اماده کنم واسه وارد کردن به وکا یا رپیدماینر و داده کاوی اگه کسی هست ممنون یه پیام بده
سلام
داده ها را بصورت csv در وكا ايمپورت كنيد سپس از طريق وكا تبديل به فرمت arff و درنهايت ميتوانيد اين ديتا را در وكا ايمپورت و استفاده بفرماييد
سپهرار ۵۲۶۷۲۵

با عرض سلام
طبق قولم مجموعه آموزشی یادگیری ماشین و پایتون به زبان فارسی رو برای دوستانی که می خواهند در این زمینه علمی قدم بگذارند تهیه کردم. قابل توجه است که تمامی سرفصل ها با پیاده سازی عملی توضیح داده شده اند. سرفصل ها از قرار زیر می باشند.
پایتون:
1:print formatting
2:strings
3:advance strings
4:Range
5:list and list comprehension
6:list methods
7:numbers
8:comparison operations
9:chain operations
10:dictionary
11:collection module
12:Tuple
13:complex
14:advance sets
15:Basic Functions
16:sets and boolean
17:if,elif,else
18:for loop
19:while loop
20:Enumerate
21:iteration and generators
22:all and any
23:lambda expression
24:map
25:Reduce
26:filter
29:modules and packages
30:Functions
31:Decorators
32:File
33:object oriented programming
جلسات ماشین:
۱:مقدمه ای بر یادگیری ماشین
۲: رگرسیون خطی
۳: مقدمه ای بر Numpy
۴:پیاده سازه رگرسیون خطی با Numpy
۵:نصب tensorflow
۶:مقدمه ای بر tensorflow
۶:پیاده سازی رگرسیون خطی با tensorflow
۷: درخت تصمیم گیری
۸:پیاده سازی درخت تصمیم با Numpy
۹:الگوریتم K-nearest neighbor
۱۰: الگوریتم K-means
۱۱: الگوریتم GMM(gaussian mixtural model)
۱۲: پیاده سازی GMM با numpy
۱۳:پیاده سازی GMM در SKlearn
۱۴:مقدمه ای بر شبکه های عصبی (perceptron)
۱۵: شبکه های عصبی Fully connected و error back propagation
۱۶: پیاده سازی Fully connected network در tensorflow
۱۷: مقدمه ای بر شبکه های کانولوشن
۱۸: پیاده سازی کانولوشن در tensorflow
تمامی ویدیوها به زبان فارسی و به همراه jupyter notebook و اسلایدهای مرتبط با هر فصل ضبط و تهیه شده اند.
برای تهیه این مجموعه با ایدی
@LNX_PY
در ارتباط باشید.
سپهرار ۵۲۶۷۲۵

با عرض سلام
طبق قولم مجموعه آموزشی یادگیری ماشین و پایتون به زبان فارسی رو برای دوستانی که می خواهند در این زمینه علمی قدم بگذارند تهیه کردم. قابل توجه است که تمامی سرفصل ها با پیاده سازی عملی توضیح داده شده اند. سرفصل ها از قرار زیر می باشند.
پایتون:
1:print formatting
2:strings
3:advance strings
4:Range
5:list and list comprehension
6:list methods
7:numbers
8:comparison operations
9:chain operations
10:dictionary
11:collection module
12:Tuple
13:complex
14:advance sets
15:Basic Functions
16:sets and boolean
17:if,elif,else
18:for loop
19:while loop
20:Enumerate
21:iteration and generators
22:all and any
23:lambda expression
24:map
25:Reduce
26:filter
29:modules and packages
30:Functions
31:Decorators
32:File
33:object oriented programming
جلسات ماشین:
۱:مقدمه ای بر یادگیری ماشین
۲: رگرسیون خطی
۳: مقدمه ای بر Numpy
۴:پیاده سازه رگرسیون خطی با Numpy
۵:نصب tensorflow
۶:مقدمه ای بر tensorflow
۶:پیاده سازی رگرسیون خطی با tensorflow
۷: درخت تصمیم گیری
۸:پیاده سازی درخت تصمیم با Numpy
۹:الگوریتم K-nearest neighbor
۱۰: الگوریتم K-means
۱۱: الگوریتم GMM(gaussian mixtural model)
۱۲: پیاده سازی GMM با numpy
۱۳:پیاده سازی GMM در SKlearn
۱۴:مقدمه ای بر شبکه های عصبی (perceptron)
۱۵: شبکه های عصبی Fully connected و error back propagation
۱۶: پیاده سازی Fully connected network در tensorflow
۱۷: مقدمه ای بر شبکه های کانولوشن
۱۸: پیاده سازی کانولوشن در tensorflow
تمامی ویدیوها به زبان فارسی و به همراه jupyter notebook و اسلایدهای مرتبط با هر فصل ضبط و تهیه شده اند.
برای تهیه این مجموعه با ایدی
@LNX_PY
در ارتباط باشید.
وجیهه ۱۳۳۳۶۴

گروه تخصصی یادگیری ماشینی براساس تنسرفلو

با توجه به تولید حجم داده های بزرگ بصورت روز افزون، توجه به یادگیری ماشینی در سیستم های کامپیوتری رو به گسترش است.
این گروه به طور تخصصی تمرکز خود را به آشنایی با مفاهیم, روش ها ، الگوریتم ها، و کاربرد های این موضوع در این حوزه گذاشته است .
باعث افتخار است که اعلام نماییم در این گروه از حضور ارجمند جناب آقای دکتر حسن ابولحسنی مهندس ارشد شرکت گوگل بهره میبریم و از تجربه های ایشان در این زمینه نهایت استفاده را خواهیم برد.
https://t.me/joinchat/B_L7t0xSL_8nCTmA9lwu8A
باتشکر و احترام
🌸🌸🌸🌸🌸🌸🌸
امیرپرویز ۱۵۷۴۲۴

میشه سرفصل مطالبی که قراره ارایه بشه رو بفرمایید
ممنون
علی اكبر ۵۴۱۵۸

سرفصل های مهم و کاربردی در دوره پیشرفته هوش  تجاری اوراکل                                              @BIMining
سرفصل های مهم و کاربردی در دوره پیشرفته هوش تجاری اوراکل @BIMining
نیلگون ۱۱۱۵۷۹

با سلام
منبع آموزشی برای کسی که میخواد تازه با شبکه عصبی آشنا بشه ، امکان داره معرفی کنید ؟
افشار ۹۳۹۴۹

با سلام
منبع آموزشی برای کسی که میخواد تازه با شبکه عصبی آشنا بشه ، امکان داره معرفی کنید ؟
کتاب طراحی شبکه عصبی مارتین هاگان
افشار ۹۳۹۴۹

بله چون از شبکه عصبی طبیعی نمیشه تو کامپیوتر استفاده کرد😀
علی اكبر ۵۴۱۵۸

📕⁣دوره پیشرفته هوش تجاری اوراکل

مدرس: محمد عالیشاهی
شروع از 30 فروردین
مدت:35 ساعت
🎉10درصدتخفیف برای اعضاء گروه هوش تجاری 

ثبت نام:@BIRegister

⁣@BIMining
📕⁣دوره پیشرفته هوش تجاری اوراکل

مدرس: محمد عالیشاهی
شروع از 30 فروردین
مدت:35 ساعت
🎉10درصدتخفیف برای اعضاء گروه هوش تجاری

ثبت نام:@BIRegister

⁣@BIMining
علی اكبر ۵۴۱۵۸

سرفصل های مهم و کاربردی در دوره پیشرفته هوش  تجاری اوراکل                                              @BIMining
سرفصل های مهم و کاربردی در دوره پیشرفته هوش تجاری اوراکل @BIMining
غلامرضا ۳۳۲۹۵۵

با سلام، کاش این دوره به صورت مجازی برگزار میشد☺️
اكرم ۷۹۱۰۸

فرصت شغلی متخصص هوش تجاری در شرکت #اسنپ‌فود

ویژگی‌ها:

⚙ تسلط بر مفاهیم پایگاه داده و تجربه کار با یکی از پایگاه داده‌های شناخته شده (MS Sql Server, Oracle, MySql, PostgreSql, …)

⚙ آشنایی با ابزارهای گزارش‌گیری و تولید داشبوردهای مدیریتی

⚙ تجربه کار با برنامه‌های ETL

⚙ آشنایی با مفاهیم و ابزارهای data mining

⚙ تسلط بر مفاهیم انبار داده و تجربه ایجاد و مدیریت انبار داده

✉️ رزومه خود را به آدرس [email protected] ارسال کنید. در قسمت موضوع ایمیل حتما عنوان BI Expert قید شود.


@BIMining
سپهرار ۵۲۶۷۲۵

نیلگون ۱۱۱۵۷۹

کتاب طراحی شبکه عصبی مارتین هاگان
متشکرم
سپهرار ۵۲۶۷۲۵

با سلام
منبع آموزشی برای کسی که میخواد تازه با شبکه عصبی آشنا بشه ، امکان داره معرفی کنید ؟
از کانال کتاب ،کتاب زیر رو بردارید. بهترین هستش به نوبه ی خودش
#Fundamentals_of_deep_learning
#books
@Machine_learn
امیربهادر ۲۶۰۱۷۵

با سلام
دوستان درمورد انتخاب انباره داده می خواستم اطلاعاتی داشته باشم
سازمان ما انواع دیتابیس های مختلف را دارد از جمله پوستگر اس کیوال،no sql،و...
حالا می خواستم بدانم بهترین انباره داده برای این دیتابیس ها چی می تونه باشه
بشیر ۲۱۸۵۸۵

سلام دوستان
با حذف object های اضافی روی دیتابیس میتونیم توقع داشته باشیم حجمش کم بشه یا خیر کار دیگه ای هم لازمه؟!
Sql
اكرم ۷۹۱۰۸

سلام دوستان
با حذف object های اضافی روی دیتابیس میتونیم توقع داشته باشیم حجمش کم بشه یا خیر کار دیگه ای هم لازمه؟!
Sql
سلام
اگر منظور از آبجكت ، متاديتا هاست خيلي تاثير ندارد
از مهمترين كارهايي كه باعث كاهش قابل توجه حجم ديتا مي شود :
١- عمليات shrink ديتابيس و كاهش حجم لاگ فايل ها
٢- آرشيو ديتاهاي كم اهميت به پايگاه داده آرشيو
٣- فشرد ه سازي فيلدهاي كاركتري و حذف فضاهاي blank
بشیر ۲۱۸۵۸۵

سلام
اگر منظور از آبجكت ، متاديتا هاست خيلي تاثير ندارد
از مهمترين كارهايي كه باعث كاهش قابل توجه حجم ديتا مي شود :
١- عمليات shrink ديتابيس و كاهش حجم لاگ فايل ها
٢- آرشيو ديتاهاي كم اهميت به پايگاه داده آرشيو
٣- فشرد ه سازي فيلدهاي كاركتري و حذف فضاهاي blank
حذف جداول و sp های اضافی منظورم بود
اكرم ۷۹۱۰۸

حذف جداول و sp های اضافی منظورم بود
بله اينها هم جز متاديتا حساب ميشود و حجم خيلي زيادي از پايگاه داده را بخود اختصاص نمي دهندمعمولا
البته اگر جداول بهمراه ديتا حذف شود قطعا تاثير گذار هست
بشیر ۲۱۸۵۸۵

بله اينها هم جز متاديتا حساب ميشود و حجم خيلي زيادي از پايگاه داده را بخود اختصاص نمي دهندمعمولا
البته اگر جداول بهمراه ديتا حذف شود قطعا تاثير گذار هست
خیلی ممنون از راهنماییتون
من لاگ فایلمو شرینک میکنم ولی یکم که دیتابیسم کار میکنه چیزی روش اجرا میشه خیلی زود حجمش میشه 40 گیگ یا بالاتر حتی یعنی به حالت قبل شرینک بر میگرده
این طبیعیه به نظرتون؟!
اكرم ۷۹۱۰۸

خیلی ممنون از راهنماییتون
من لاگ فایلمو شرینک میکنم ولی یکم که دیتابیسم کار میکنه چیزی روش اجرا میشه خیلی زود حجمش میشه 40 گیگ یا بالاتر حتی یعنی به حالت قبل شرینک بر میگرده
این طبیعیه به نظرتون؟!
شما عمليات truncate رو هم براي لاگ فايل transactional انجام بديد بعد ببينيد همين مشكل مجدد ايجاد ميشود
بشیر ۲۱۸۵۸۵

شما عمليات truncate رو هم براي لاگ فايل transactional انجام بديد بعد ببينيد همين مشكل مجدد ايجاد ميشود
حتما
خیلی لطف کردید🌻🌸🌹
امیربهادر ۲۶۰۱۷۵

دوستان بنده را هم راهنمایی بفرمایید نسبت به سوالی که پرسیدم بنده تازه کار هستم
اكرم ۷۹۱۰۸

با سلام
دوستان درمورد انتخاب انباره داده می خواستم اطلاعاتی داشته باشم
سازمان ما انواع دیتابیس های مختلف را دارد از جمله پوستگر اس کیوال،no sql،و...
حالا می خواستم بدانم بهترین انباره داده برای این دیتابیس ها چی می تونه باشه
سلام
سوالتون خيلي كلي هست اهداف شما از انبار داده چيست
بخش اول صرفا ذخيره سازي ، پاكسازي و تجميع و متمركز سازي
بخش دوم تحليل و پردازش از ديتاي انبار داده

بستگي به حجم ديتا ، تنوع ديتا، نرخ رشد ديتا، انتخاب پلتفرم مناسب، ميزان تخصيص منابع سخت افزاري و هزينه سخت افزار و ..
ميتوانيد از انواع پايگاه داده اوراكل ، DB2 تا پايگاه داده هاي غير رابطه اي مانند Mongo db و cassandra و .. ميتوانيد انتخاب كنيد
امیربهادر ۲۶۰۱۷۵

خیلی ممنونم
بیشتر اهداف سازمان مربوط به تحلیل و پردازش داده است
از نظر میزان رشد دیتا باید بگم خیلی زیاد
از نظر هزینه در منابع سخت افزاری محدودیتی نداریم
پس پیشنهاد شما اوراکل و مانگو هست
خیلی ممنون می شم اگر مستنداتی هم دارید بفرمایید تا مطالعه داشته باشم بتونم به حد مطلوب برسم
حوری ۳۱۱۵۲۹

درود.با اجازه ادمین های محترم و بزرگوار.

عزیزان بنده کانالی با موضوع درس چدید ایجاد کردم که اموزش های برنامه نویسی و تست و نفوذ و امنیت قرار میگیره به صورت رایگان.
رایگان بودن دلیل بر این نیست که پابلیک هست. اموزش ها یا رایگان و یا با رضایت صاحب اثر انتشار یافته.
هر روز یک قسمت از اموزش ها با لینک و فایل دانلود در تلگرام فرستاده میشه.
هر کسی خواست ادرس در بیو موجوده
سپهرار ۵۲۶۷۲۵

یک جزوه دست نویس فارسی بسیار عالی برای یادگیری داده کاوی. سوالی هم بود در خدمتم
نیلگون ۱۱۱۵۷۹

سپهرار ۵۲۶۷۲۵

پیاده سازی یک شبکه عصبی Fully connected و نحوه ی fit کردن داده ها به این شبکه. همراه با داده ها، جهت اجرا

@Machine_learn
نیلگون ۱۱۱۵۷۹

با سلام
من برنامه weka را نصب کرده ام . بعد از نصب جاوا این پنجره ظاهر میشه. چه علتی میتونه داشته باشه؟؟؟
نیلگون ۱۱۱۵۷۹

امیرهمایون ۸۶۹۴۸

سلام. از چه سایتی وکا رو دانلود کردین؟
نیلگون ۱۱۱۵۷۹

از سایت pcdownload
نیلگون ۱۱۱۵۷۹

سلام. از چه سایتی وکا رو دانلود کردین؟
ویندوزم 10 هست . از هر راهی که میرم به این پنجره می رسم
امیرهمایون ۸۶۹۴۸

شاید کامل نبوده . از سافت‌گذر دانلود کنید. منم ویندوزم ۱۰ هست و نصب کردم و مشکلی نداشتم.
نینت ۱۲۱۲۶۳

با سلام
من برنامه weka را نصب کرده ام . بعد از نصب جاوا این پنجره ظاهر میشه. چه علتی میتونه داشته باشه؟؟؟
.
نینت ۱۲۱۲۶۳

با سلام
من برنامه weka را نصب کرده ام . بعد از نصب جاوا این پنجره ظاهر میشه. چه علتی میتونه داشته باشه؟؟؟
.
آوید ۲۷۱۲۸۰

متناسب با نوع سیستم نصب کنید ۳۲ یا ۶۴
آوید ۲۷۱۲۸۰

http://www.thefakegeek.com/2015/09/how-to-fix-java-install-did-not-complete-error-1618/
نیلگون ۱۱۱۵۷۹

ممنون از راهنمایی همه ی اساتید. روی ویندوز 10 نصب نشد ولی روی ویندوز 7 خیلی سریع نصب شد .
فرناز ۵۳۰۵۸۸

🌍لینک دانلود در فرادرس


آموزش جامع نرم افزار هوش تجاری Tableau  به مدت 5 ساعت
🌍لینک دانلود در فرادرس


آموزش جامع نرم افزار هوش تجاری Tableau به مدت 5 ساعت
سپهرار ۵۲۶۷۲۵

پک اختصاصی داده کاوی ، یادگیری ماشین و پایتون در ۴۵ جلسه تئوری و عملی(یک جلسه تئوری و جلسه بعد پیاده سازی آن). جهت دریافت با ایدی زیر در ارتباط باشید.
@LNX_PY👈🎬
مهفام ۹۱۲۸۲

دوستان فکر میکنم قبلا در این گروه درمورد شرکتهایی که در حوزه bi فعالیت دارن صحبت شده بود و ترتیبی ازشون عنوان شد. اما الان هر چی میگردم پیدا نمیکنم. میشه راهنمایی کنید .
ممنون.
انیسا ۳۸۹۹۲

یه سوال داشتم:
کسی می دونه این سایت هایی مثل p30download یا soft98 از روی چه نرم افزاری مدیریت می کنن داده هاشونو؟یعنی مثل از کجا می دونن چه برنامه ای چه نسخه هایی رو انتشار دادن؟یا اصلا با اکسل دارن کار می کنن و برنامه هاشونو اونجا لیستشو دارن؟؟
هدی ۷۷۷۳۸

یه سوال داشتم:
کسی می دونه این سایت هایی مثل p30download یا soft98 از روی چه نرم افزاری مدیریت می کنن داده هاشونو؟یعنی مثل از کجا می دونن چه برنامه ای چه نسخه هایی رو انتشار دادن؟یا اصلا با اکسل دارن کار می کنن و برنامه هاشونو اونجا لیستشو دارن؟؟
اطلاع دقیق ندارم
ولی فکر میکنم مبنای قرار دادن ورژن جدید و برنامه جدید٬در آمدن نسخه های کرک شده جدیده.
چون بعیده اینا خودشون تیم فنی کرک کردن داشته باشن.
لذا احتمالا سایت ها و تورنت های قرار دهنده کرک نرم افزار ها رو چک میکنن که اغلب روسی شاید باشن.
انیسا ۳۸۹۹۲

اطلاع دقیق ندارم
ولی فکر میکنم مبنای قرار دادن ورژن جدید و برنامه جدید٬در آمدن نسخه های کرک شده جدیده.
چون بعیده اینا خودشون تیم فنی کرک کردن داشته باشن.
لذا احتمالا سایت ها و تورنت های قرار دهنده کرک نرم افزار ها رو چک میکنن که اغلب روسی شاید باشن.
نه حالا اون خیلی مدنظر نیس منظورم اینه که دارایی دیتاشونو چطور مدیریت می کنن مثل فلان برنامه رو چه نسخه هایی ازش دارن و چه چیز هایی رو ندارن از هر برنامه چیارو گذاشتن یا چیارو نذاشتن
برایان ۱۱۴۲۹۶

قیمتش را هم لطفا بفرمایید
علی اكبر ۵۴۱۵۸

قیمتش را هم لطفا بفرمایید
1400000 البته برای اعضای گروه هوش تجاری 10 درصد تخفیف در نظر گرفته میشه
برایان ۱۱۴۲۹۶

1400000 البته برای اعضای گروه هوش تجاری 10 درصد تخفیف در نظر گرفته میشه
متشکرم
بشیر ۲۱۸۵۸۵

سلام دوستان
پیرو مشکلی که در مورد سرعت یکی از sp هام مطرح کرده بودم
این sp دائما در حالت suspende در حالی که کوئری دیگه ای روی سرور در حال اجرا نیست و منابع آزادن
چی میتونه کوئری منو متوقف کنه
ممنون میشم اگر میدونید راهنمایی کنید
حماد ۳۲۵۵۰۱

سلام دوستان
پیرو مشکلی که در مورد سرعت یکی از sp هام مطرح کرده بودم
این sp دائما در حالت suspende در حالی که کوئری دیگه ای روی سرور در حال اجرا نیست و منابع آزادن
چی میتونه کوئری منو متوقف کنه
ممنون میشم اگر میدونید راهنمایی کنید
سلام شما constraint ها تون رو چک بفرمایید
بشیر ۲۱۸۵۸۵

سلام شما constraint ها تون رو چک بفرمایید
میشه بیشتر توضیح بدین؟
حماد ۳۲۵۵۰۱

میشه بیشتر توضیح بدین؟
ممکنه برخی از contraint check ها باعث توقف sp بشن
گوگل کن کوئری بررسی کلی constraint ها هست میتونی از اونا کمک بگیری
البته این یکی از ۱۰ ها موردی هست که ممکنه باعث توقف بشه
بشیر ۲۱۸۵۸۵

ممکنه برخی از contraint check ها باعث توقف sp بشن
گوگل کن کوئری بررسی کلی constraint ها هست میتونی از اونا کمک بگیری
البته این یکی از ۱۰ ها موردی هست که ممکنه باعث توقف بشه
روی جدول اصلی این sp هیچ constraint نیست
ولی سی تا جدول دخیلن
همه رو لاید چک کنم؟!
حماد ۳۲۵۵۰۱

روی جدول اصلی این sp هیچ constraint نیست
ولی سی تا جدول دخیلن
همه رو لاید چک کنم؟!
هر جدولی که تو result این sp استفاده میشه باید چک کنید
بشیر ۲۱۸۵۸۵

هر جدولی که تو result این sp استفاده میشه باید چک کنید
الان رو یه قسمت کوئری وایساده و suspende که همه جدولاشو چک کردم و constraint نداشت
سعید ۳۱۰۰۲

برای پیاده سازی یه ETL با پایتون تولز خاصی هست که دوستان پیشنهاد بدن؟
و اینکه بین تولز های غیر پایتونی پیشنهاد دیگه ای دارید؟
سمین دخت ۴۱۰۸۳۷

علی اكبر ۵۴۱۵۸

برای پیاده سازی یه ETL با پایتون تولز خاصی هست که دوستان پیشنهاد بدن؟
و اینکه بین تولز های غیر پایتونی پیشنهاد دیگه ای دارید؟
ابزار ODI12C
سعید ۳۱۰۰۲

ابزار ODI12C
👍🏻👍🏻👍🏻
جمیل ۱۳۳۰۴۲

برای پیاده سازی یه ETL با پایتون تولز خاصی هست که دوستان پیشنهاد بدن؟
و اینکه بین تولز های غیر پایتونی پیشنهاد دیگه ای دارید؟
متناسب با دیتا سورس هاتون میتونید از ssis, odi, talend استفاده کنید ، هر کدوم دارای مزایا و معایب خودشون هستن
سعید ۳۱۰۰۲

متناسب با دیتا سورس هاتون میتونید از ssis, odi, talend استفاده کنید ، هر کدوم دارای مزایا و معایب خودشون هستن
Ok 👌🏻
مهفام ۹۱۲۸۲

دوستان فکر میکنم قبلا در این گروه درمورد شرکتهایی که در حوزه bi فعالیت دارن صحبت شده بود و ترتیبی ازشون عنوان شد. اما الان هر چی میگردم پیدا نمیکنم. میشه راهنمایی کنید .
ممنون.
از دوستان کسی میتونه شرکتهای فعال در حوزه bi رو نام ببره.
ممنونم 🙏
فرخنده ۱۱۱۰۶۲

یک شرکت فعال در حوزه بانکی و شبکه پرداخت جهت راه اندازی سامانه کشف تقلب و تخلف fraud نیروی فعال و با تجربه جدب می نماید
علاقمندان جهت کسب اطلاعات بیشتر خصوصی پیغام بدن
خالد ۹۴۵۲۷

از دوستان کسی میتونه شرکتهای فعال در حوزه bi رو نام ببره.
ممنونم 🙏
شرکت سان در حوزه BI ، خیلی خوب کار کرده.
صبا ۴۱۶۳۴۵

شرکت کیسان بصورت تخصصی در حوزه هوش تجاری و انباره داده کار میکنند.
سودابه ۴۱۳۱۹۹

سلام وقت بخیر، به دنبال data set در زمینه ی کشاورزی هستم،ممنون میشم راهنماییم کنید
سپهرار ۵۲۶۷۲۵

سلام وقت بخیر، به دنبال data set در زمینه ی کشاورزی هستم،ممنون میشم راهنماییم کنید
Githubسلام از سایت
استفاده کنید
آذر ۷۷۲۶۷

سلام. دوستان یک دیتاست دارم از پست های تلگرام با این فیلدها
ای دی پیام، ساعت و تاریخ پیام ، تعداد ویوی پست.چند تا نمودار درست کردم کسی چیزی به ذهنش میرسه؟
سپهرار ۵۲۶۷۲۵

سلام. دوستان یک دیتاست دارم از پست های تلگرام با این فیلدها
ای دی پیام، ساعت و تاریخ پیام ، تعداد ویوی پست.چند تا نمودار درست کردم کسی چیزی به ذهنش میرسه؟
سلام یکم دقیقتر سوالتون رو بپرسید.
آذر ۷۷۲۶۷

سایت teegle رو که موتور جستجوی تلگرام هست من نوشتم و دیتابیسی دارم از ۱۰۰۰۰۰ کانال تلگرامی
آذر ۷۷۲۶۷

و یک پنل نوشتم برای کسانی که میخواهند پایش کنند کانالشون رو
آذر ۷۷۲۶۷

مثلا روز هفته و تعداد ویو یک پست و ساعت روز و تعداد ویو دو تا نمودار کاربردی هستند
آذر ۷۷۲۶۷

و تاریخ و تعداد ویو و ...
اكرم ۷۹۱۰۸

سایت teegle رو که موتور جستجوی تلگرام هست من نوشتم و دیتابیسی دارم از ۱۰۰۰۰۰ کانال تلگرامی
خیلی عالی ، آفرین بر شما
بنظرم یک ترند برای میزان بازدید کانال منظور محتوا در بازه زمانی روز ،ماه ،فصل و سال
بعد تحلیل افزایش و کاهش عضو کانال در بازه های زمانی و با توجه به مطالبی که در کانال قرار داده میشود به عنوان مثال بعضی از مطالب به علت جذابیت و اهمیت آن می تواند اعضای کانال را افزایش یا کاهش دهد
همچنین موضوعاتی که باعث کاهش تعداد اعضای یا ریزش اعضای کانال می شود می تواند مورد بررسی قرار بگیرد
اكرم ۷۹۱۰۸

و تاریخ و تعداد ویو و ...
بهترین و بدترین زمان برای جذب عضو - بهترین و بدترین زمان بازدید محتوا و ....
آذر ۷۷۲۶۷

بهترین و بدترین زمان برای جذب عضو - بهترین و بدترین زمان بازدید محتوا و ....
این مورد خوبیه و انجام شده
آذر ۷۷۲۶۷

مثلا ساعت ۹ و ۱۰ صبح و ۴و۵ بعد از ظهر بیشترین ویو بوده
اكرم ۷۹۱۰۸

این مورد خوبیه و انجام شده
پربیننده تربن مطلب ، کم بیننده ترین ها ...
می تواند به مدیر کانال کمک کنه تا مطالب را هدفمند جهت افزایش جذب مخاطب قرار دهد
آذر ۷۷۲۶۷

خیلی عالی ، آفرین بر شما
بنظرم یک ترند برای میزان بازدید کانال منظور محتوا در بازه زمانی روز ،ماه ،فصل و سال
بعد تحلیل افزایش و کاهش عضو کانال در بازه های زمانی و با توجه به مطالبی که در کانال قرار داده میشود به عنوان مثال بعضی از مطالب به علت جذابیت و اهمیت آن می تواند اعضای کانال را افزایش یا کاهش دهد
همچنین موضوعاتی که باعث کاهش تعداد اعضای یا ریزش اعضای کانال می شود می تواند مورد بررسی قرار بگیرد
بسیار خوب
اكرم ۷۹۱۰۸

مثلا ساعت ۹ و ۱۰ صبح و ۴و۵ بعد از ظهر بیشترین ویو بوده
لطفا دیاگرامهای خروجی را در صورت تمایل در این گروه قرار بدید تا سایر دوستان استفاده کنند ممنونم