_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
58079
من باید یک مدل Cox توسعه یافته را با یک متغیر کمکی متغیر با زمان در R اجرا کنم: اجازه دهید آن را تعداد دوز ('X') بنامیم. من به نسبت خطر مرتبط با **هر سطح** از X علاقه دارم، یعنی. چگونه یک دوز اضافی بر احتمال بهبودی تأثیر می گذارد. X یک عدد صحیح گسسته و مثبت است. می تواند ثابت بماند یا 1 در طول هر زمان مشاهده افزایش یابد. «وضعیت=1» نشان‌دهنده بازیابی است و «d1»، «d2»،... «d6» تعداد دوزهای دریافتی هستند (ایجاد شده برای اهداف مدل‌سازی) من مطمئن نیستم که چگونه داده‌ها را تنظیم کنم. من بر اساس مطالعه خود به دو گزینه رسیده‌ام و گزیده‌ای از تنظیم داده‌ها و کد هر روش را پیوست می‌کنم، اما مطمئن نیستم که کدام (اگر یکی) برای پاسخ به این سؤال صحیح است؟ آنها نتایج نسبتاً متفاوتی را ارائه می دهند. داده ها به طور مصنوعی در هر زمان مشاهده تجزیه شده است (توقف): دوزهای توقف شروع بیمار d1 d2 d3 d4 d5 d6 وضعیت 1 0.000000 0.034000 1 1 0 0 0 0 0 0 0 1 0.034000 12.90012.90012 1 12.949399 13.813242 3 1 1 1 0 0 0 0 1 13.813242 30.835070 4 1 1 1 1 0 0 0 2 0.000000 0.241000 0.240000 2.984179 2 1 1 0 0 0 0 0 2 2.984179 4.014723 3 1 1 1 0 0 0 0 2 4.014723 5.186506 4 1020 1 1 1 29.832999 4 1 1 1 0 0 0 2 29.832999 32.063887 5 1 1 1 1 1 0 0 2 32.063887 37.924743 ** 6 1 1 * 1 1 1 1 TH دوزها به عنوان فاکتور** dt<-read.csv('data.csv',header=T) surv<-Surv(شروع، توقف، وضعیت، داده=dt) m<-coxph(surv ~ فاکتور(دوز)، data=dt) روش 2: **هر دوز را به عنوان یک متغیر باینری در نظر بگیرید** dt<-read.csv('data.csv',header=T) surv<-Surv(start,stop,status,data=dt) m<-coxph(surv~d1+d2+d3+d4+d5+d6 , data=dt) آیا هر کدام از روش ها این را در نظر می گیرد که بیمار در دوره قبلی دوزهای ('n-1') داشته است؟
مدل کاکس توسعه یافته با متغیر کمکی وابسته به زمان پیوسته - چگونه داده ها را ساختار دهیم؟
20158
ممکن است به من کمک کنید تا تصمیم بگیرم حداقل حجم نمونه برای یک نمونه توزیع شده یکنواخت چقدر است. فرض کنید که میانگین نمونه، انحراف معیار و $\alpha$ را پیدا کرده‌ام.
تعیین حجم نمونه برای توزیع یکنواخت
58078
با توجه به $R_1=g(X_1,Y_1,Z_1)$ و $R_2=g(X_2,Y_2,Z_2)$Y_1,Y_2$ به طور مشترک iid هستند. $f(R_1|X_1)$ و $f(R_2|X_2)$ و بدانید که $X_1,X_2$ مشترکاً عادی با همبستگی $\rho$ وابسته هستند. $ آیا RVهای وابسته هستند؟ **ویرایش:** برای روشن شدن بر اساس نظرات، من به طور خاص به این مورد نگاه می کنم که در آن $X_i$، $Y_i$ و $Z_i$ همگی مستقل از یکدیگر هستند و تنها وابستگی به آن وجود دارد. بین $X_1$ و $X_2$
چگونه $f(R_1,R_2)$ را از $f(R_1|X_1)$ محاسبه کنیم و $f(R_2|X_2)$ با توجه به X_1$، X_2$ RVهای وابسته هستند؟
46864
من روی الگوریتم‌هایی برای فیلتر کردن مشارکتی (CF) کار می‌کنم. به عنوان بخشی از این کار، من می خواهم یک الگوریتم جدید را با رویکردهای قبلی برای مسئله مقایسه کنم. همچنین در حال بررسی مهم ترین روش ها و انتشارات در نشریات هستم. تاکنون حدود 50 مقاله را مرور کرده‌ام، اما در مشخص کردن مرتبط‌ترین/جالب‌ترین مقاله‌ها مشکل دارم. من می‌خواهم الگوریتم CF خود را با مجموعه‌ای از الگوریتم‌های دیگر CF آزمایش کنم، هم برخی از روش‌های ساده پایه و هم برخی از روش‌های جدیدتر. الگوریتم خود را با کدام روش مقایسه کنم؟ من قصد دارم تا حد امکان در چند ماه آینده پیاده‌سازی کنم (یا پیاده‌سازی‌ها را بیابم)، بنابراین باید بتوان کمی از روش‌های مختلف را دور زد.
مرتبط‌ترین الگوریتم‌ها برای فیلتر مشارکتی برای آزمایش
46794
اساساً من به ورزش علاقه مندم و به عنوان بخشی از آن یک نسخه مبتنی بر مایکروسافت اکسل از پایان نامه کنت ماسی 1997 (http://masseyratings.com/theory/massey97.pdf) روش رتبه بندی تیم های ورزشی را انجام می دهم، که همچنین امکان یک خانه را فراهم می کند. امتیاز فیلد (HFA) (بنابراین من حل کننده در اکسل روش حداقل مربعاتی را که بر اساس نتایج بازی تنظیم کرده‌ام را حل می‌کند تا بهترین تناسب را برای میانگین یا رتبه‌بندی تیم‌ها بدست بیاورم. و یک مزیت میدان خانگی مشترک). به دلیل پستی در یک فروم در جای دیگر، تصمیم گرفتم که سعی کنم شماره‌ای را در مزیت میدان خانگی (HFA) تیم سیاتل سیهاوکز (NFL) قرار دهم، که ظاهراً بالاتر از میانگین لیگ است. از آنجایی که مدل من معمولاً به همه بازی‌های فصل اجازه می‌دهد تا مشکل حداقل مربعات را حل کنند (برای ایجاد یک رتبه‌بندی دقیق)، من داده‌های ۶ فصل گذشته را گرفتم، رتبه‌بندی پایان فصل خود را از هر یک از آن فصل‌ها ثابت نگه داشتم (برگرفته از نتایج حاصل از بیش از 250 بازی - 16 بازی برای هر تیم) و اکسل را برای حل مزیت های زمین خانگی فردی بر اساس هر یک از بازی های خانگی تیم ها (8 در هر فصل) دریافت کرد. سپس میانگین HFA های فردی به میانگین لیگ که توسط مدل اصلی من حل شده بود، رسید. بنابراین به طور موثر مشکلم را با مدل تطبیق دادم (فکر می کنم؟). من از دانشگاه صنعتی سوئینبرن توسط مقاله استفان کلارک برای مزایای زمین خانگی در لیگ فوتبال استرالیا استفاده کردم (http://researchbank.swinburne.edu.au/vital/access/manager/Repository/swin:1561?exact= خالق%3A%22Clarke%2C+Stephen+R.%22) به عنوان مبنایی برای مفهوم و به طور خاص این اشاره به هارویل، دی. ا.، و اسمیت، ام. اچ (1994) است. مزیت زمین خانگی: چقدر بزرگ است و آیا از تیمی به تیم دیگر متفاوت است؟ آماردان آمریکایی، 48، 22-28. به طور خلاصه با جمع‌آوری داده‌ها در طول 6 فصل (2007/2008 - تا 2012/2013)، من 4 تیم را پیدا کردم که بیش از دو امتیاز با میانگین لیگ تفاوت داشتند (و 28 تیم که در 2 امتیاز بودند که فکر نمی‌کردم یک امتیاز باشد. تفاوت به اندازه کافی بزرگ است) و به نظر می رسد این تیم ها به طور متوسط ​​در 10 برتر یا 10 پایین ترین مزیت های زمین خانگی قرار دارند. در بالا؛ سیاتل سیهاوکس – میانگین رتبه هفتم HFA – میانگین اختلاف نسبت به میانگین HFA لیگ 2.58: +3.47 امتیاز (به عنوان مثال HFA سیاتل = 6.05) بالتیمور ریونز – میانگین رتبه HFA نهم – میانگین اختلاف نسبت به میانگین HFA لیگ: +2.64 امتیاز و در پایین. Carolina Panthers – میانگین HFA 23 – میانگین اختلاف نسبت به میانگین HFA لیگ: -2.11 امتیاز Miami Dolphins – میانگین HFA 24th – میانگین اختلاف میانگین لیگ برتر HFA: -2.61 امتیاز (بنابراین به طور متوسط ​​HFA اندکی منفی است و تنها تیمی است که این موضوع روی آن تأثیر می گذارد) . سوال من این است؛ آیا راهی برای آزمایش اهمیت 3.47 امتیاز بالاتر از مقدار میانگین لیگ HFA انفرادی سیاتل سیهاوکز وجود دارد؟ قابل توجه است؟ آیا مجموعه داده بازی ها به اندازه کافی بزرگ است (6 فصل – 48 بازی در هر تیم)؟ آیا من حق دارم هر چیزی که کمتر از 2 امتیاز کمتر از میانگین است را نادیده بگیرم، زیرا به اندازه کافی قابل توجه نیست (که ممکن است فقط به دلیل یک فصل کوتاه باشد)؟ من همچنین به دنبال علت HFA نیستم (که انتظار دارم ترکیبی از آشنایی باشد زیرا ورزشگاه تنها ده سال باز است و سفر می کنم زیرا سیاتل منزوی ترین تیم NFL است). من فقط می خواهم ثابت کنم که مهم است (و سپس می توانم به دنبال علل باشم). من پیشینه ریاضی خوبی ندارم (فقط به ورزش علاقه دارم) بنابراین برای هر توصیه ای سپاسگزار خواهم بود زیرا فکر می کنم 3 امتیاز بالاتر از میانگین لیگ باید یک مزیت قابل توجه باشد. با تشکر
تلاش برای آزمایش اهمیت مزیت میدان خانگی Seattle Seahawks
46867
با این یکی مشکل کمی دارید: فرض کنید $X_1، X_2، \ldots $ متغیرهای تصادفی معمولی استاندارد iid هستند. اجازه دهید $W_n = \sqrt{n} \frac{X_1 + \cdots + X_n}{X_1^2 + \cdots + X_n^2}$. توزیع محدود $W_n$ را به صورت $n \به \infty$ پیدا کنید. خیلی بد است که همگرایی در توزیع تحت تقسیم بسته نشده است. نمی توانم slutsky را برای درخواست دریافت کنم.
توزیع محدود کننده $W_n$ را پیدا کنید
112958
من می دانم که Lasso در نهایت برخی از پارامترها را صفر می کند و مانند انتخاب متغیر عمل می کند. من همچنین از مقاله خواندم که صحبت در مورد روش انتخاب متغیر خودکار مانند Stepwise AIC می تواند دردسرساز باشد. بنابراین مزایای استفاده از کمند برای انتخاب متغیر نسبت به استفاده از رویه های خودکار مانند Stepwise AIC چیست؟
چرا رگرسیون کمند برای داده های با ابعاد بالا بهتر از Stepwise AIC است؟
69173
من برخی از پست های قبلی را در مورد این موضوع خوانده ام و هنوز متوجه نشده ام که چگونه caret در مورد تعداد درختان هنگام استفاده از model=cforest از بسته پارتی تصمیم می گیرد. من می دانم که در آستانه خاصی از ساختن درختان بیشتر استفاده نمی شود، اما این عدد بهینه چگونه محاسبه می شود؟ آیا پیش فرض است؟
تعداد درختانی که از جنگل در حفره استفاده می کنند
44794
مشکل تکلیف من به شرح زیر است: من با یک رشته 0 به طول $n$ شروع می کنم. سپس، با احتمال $p$، هر بیت را به طور یکسان و مستقل به 1 تغییر می دهم. پس از آن، تعداد 1 ها را در رشته می شمارم (که به طور متوسط ​​$np$ خواهد بود). عدد 1 را $P_1$ بگذارید. این روند را 100 بار ادامه دهید، اعداد صحیح $P_1، P_2،\ldots، P_{100}$ را دریافت کنید. من می‌خواهم حداکثر را در مجموعه $\\{P_1, P_2, .., P_{100}\\}$ تخمین بزنم.
مشکل در توزیع عادی
20157
من سعی می کنم از تابع 'gbm.fit()' برای یک مدل درختی رگرسیون تقویت شده که در بسته R gbm پیاده سازی شده است استفاده کنم. برای بررسی به عنوان مثال، خطای پیش‌بینی بوت استرپ و تمام قابلیت‌های دیگر، می‌خواهم از «errorest()» از بسته ipred استفاده کنم. من فکر می کنم «errorest()» خروجی «gbm» را نمی پذیرد. آیا راه حلی وجود دارد؟ با عرض پوزش، برای مثال گم شده. لطفاً، داده‌های کتابخانه (ipred) کتابخانه (gbm) (BostonHousing) را در زیر ببینید <- gbm(medv ~ ., توزیع = gaussian, data=BostonHousing) من مطمئن نیستم که چگونه از نتیجه در `errorest()` استفاده کنم . آیا کسی می تواند به من کمک کند؟ با تشکر
به دست آوردن برآوردهای مبتنی بر نمونه‌گیری مجدد از خطای پیش‌بینی در مدل درختی رگرسیون تقویت‌شده
13051
من در حال حاضر در حال نوشتن برنامه ای برای یادگیری طبقه بندی کننده TAN (شبکه بیزی تقویت شده درختی) از داده ها هستم و تقریباً آن را تمام کرده ام. من از الگوریتم توضیح داده شده در مقاله فریدمن با عنوان «طبقه‌بندی‌کننده‌های شبکه بیزی» استفاده می‌کنم و برای متغیرهای پیوسته، توزیع گاوسی را فرض می‌کنم. من برنامه خود را روی برخی از مجموعه داده های UCI repo آزمایش کرده ام و اساساً خوب کار می کند. با این حال وظیفه اصلی من نیاز به آموزش تدریجی دارد (و داده ها همگی پیوسته هستند). مشکل این است که در ابتدا اندازه مجموعه داده کوچک است و ممکن است متغیری وجود داشته باشد که مقادیر آن در کل مجموعه داده یکسان باشد که منجر به واریانس 0 می شود. الگوریتمی که من استفاده می کنم نیاز به محاسبه اطلاعات متقابل شرطی هر ویژگی دارد. متغیرها متغیر کلاس C را می دهند، در زیر معادله ای است که من برای متغیرهای پیوسته استفاده می کنم، $$I(X_i; X_j|C) = -\frac{1}{2} \sum_{c=1}^{r} P(c) \log(1-\rho_c^2(X_i,X_j)),$$$\rho_c(X_i,X_j)=\frac{\sigma_{ij |c}}{\sqrt{\sigma_{i|c}^2\sigma_{j|c}^2}}$$ همانطور که می بینید، اگر واریانس یک متغیر 0 است، با خطای تقسیم صفر مواجه خواهم شد. برای اینکه برنامه من خراب نشود، در چنین مواردی واریانس متغیر را روی 1 صدم انتظار آن یا 0.01 اگر انتظار 0 باشد (به این معنی که همه مقادیر 0 هستند) تنظیم می کنم. با این حال، هنگامی که دو متغیر وجود دارد و مقادیر آنها همه یکسان است (در موردی که من با همه 0 مواجه شدم)، برنامه همچنان از کار می افتد زیرا در آن صورت محاسبه log 0 خواهد بود. چگونه می توانم با چنین شرایطی برخورد کنم؟ همانطور که در یک حالت کاملاً متغییر گسسته، من از دیریکله قبل از تقسیم بر صفر استفاده می کنم، شاید بتوانم به طور مشابه از نوعی قبل برای متغیرهای پیوسته استفاده کنم؟ روش های رایج برای مقابله با مجموعه داده های کوچک چیست؟ من از نظر آمار ضعیف هستم، امیدوارم سوالم خیلی آزاردهنده نباشد.
مشکل در یادگیری پارامتری زمانی که مجموعه داده ها کوچک هستند
13059
من مجموعه ای از دنباله اعداد دارم، هر دنباله مستقل از یکدیگر است. من می خواهم بدانم که آیا به طور کلی این دنباله ها افزایش می یابد، کاهش می یابد یا ثابت می ماند. کاری که من تاکنون انجام داده‌ام، یک مدل خطی برازش برای هر دنباله است، به طوری که می‌توانم از گرادیان برای تعیین اینکه آیا دنباله در حال افزایش است یا خیر استفاده کنم. سپس من از تست Wilcoxson U استفاده می کنم تا بررسی کنم که آیا شیب های مثبت به اندازه شیب های منفی بزرگ هستند (البته در مقدار مطلق). آیا این راه حل خوبی برای مشکلات من است؟ تهدیدات این راه حل چیست؟ چه چیزی بهتر از این خواهد بود؟
ارزیابی افزایش یا کاهش مجموعه توالی ها
94542
من سعی کرده ام یک رگرسیون خطی ساده از x3 = هفته های ادعا شده در برابر x4 = هفته های جبران شده انجام دهم. من مشکل دارم زیرا خطای استاندارد باقیمانده من بسیار زیاد است و همچنین باقیمانده های من هموسداستیک نیستند. اگر کسی بتواند راهنمایی هایی در مورد چگونگی رفع این مشکلات ارائه دهد، واقعاً ممنون می شوم. اینم خروجی R. ![IMG](http://i.imgur.com/q18e0zh.jpg) ![IMG2](http://i.imgur.com/DJsKegq.jpg) ![IMG]( http://i.imgur.com/hYBiBwm.jpg) ممنون!!
مشکل در برازش رگرسیون خطی ساده
94541
من در حال انجام تحقیقاتی در مورد برخی از صنایع هستم و سعی می کنم برخی از آمار درآمد را پیش بینی کنم. من می دانم که ارزش این صنعت 220 میلیون دلار است و 360 تجارت وجود دارد. من فرض می‌کنم که توزیع درآمد کسب‌وکار مشابه توزیع درآمد در آمریکا خواهد بود: http://www.theglitteringeye.com/images/us-income-distribution.gif آیا می‌توانید به من کمک کنید تا عملکردی ارائه کنم که به شما کمک کند. من برای شبیه سازی چنین توزیعی بر اساس میزان کسب و کار و ارزش صنعت؟ با تشکر Btw، من تحصیلات آماری ندارم، پس ببخشید اگر سوال گنگ است.
چگونه می توان یک شبیه سازی برای توزیع درآمد در برخی از صنایع ایجاد کرد؟
99601
با عرض پوزش صمیمانه برای سؤالی که ممکن است احمقانه باشد، من در تشخیص الگو تازه کار هستم و تمام کتاب های درسی را که برای یک مبتدی قابل دسترسی است، خسته کرده ام. من این پست را بطور قابل ملاحظه ای بازنویسی کرده ام تا به توضیح بهتر خودم کمک کنم. مشکل: فرض کنید می‌خواهم یک برنامه طبقه‌بندی بسازم که برای تشخیص اینکه آیا بیمار بر اساس ضربان قلب و فشار خون احتمال دارد یا نه، احتمالاً به یک اختلال قلبی ژنتیکی مبتلا است یا خیر، طراحی شده است. در حالی که سن بر خطر ابتلا به این بیماری تأثیر نمی گذارد، اما تعیین کننده بزرگی برای HR و BP است. راه‌حل جزئی: می‌دانم که می‌توانم یک مجموعه داده [AGE HR BP] از بسیاری از افراد سالم و بیمار بسازم و از میانگین‌ها و ماتریس‌های کوواریانس هر مجموعه داده برای انجام یک طبقه‌بندی مبتنی بر ماهالانوبیس استفاده کنم. در این مورد من می‌توانم از فاصله ماهالانوبیس داده‌های بیمار تا میانگین کلاس گروه‌های سالم و ناسالم استفاده کنم. با این حال، همانطور که می‌دانم، سن بیماران تا حدی تعیین‌کننده سالم بودن یا نبودن آنهاست، چیزی که ما می‌خواهیم از آن اجتناب کنیم. سوال: آیا راهی وجود دارد که بتوان از سن بیمار برای محاسبه واریانس های HR و BP با گنجاندن آن در ماتریس های کوواریانس استفاده کرد، بدون اینکه بخشی از فرآیند تصمیم گیری باشد؟ برای جلوگیری از طبقه بندی های نادرست مانند - [بیمار بالای 50 سال است، اکثر بیماران در گروه ناسالم بالای 50 سال هستند (به طور تصادفی) بنابراین بیمار ناسالم است].
کم کردن فاصله ماهالانوبیس در یک جهت از کل
46798
من به دنبال یک الگوریتم خوشه بندی هستم. مجموعه داده ایده آل من به این صورت است: ![http://i.stack.imgur.com/bSlNU.png](http://i.stack.imgur.com/pqEpC.png) نتیجه خوشه بندی باید شبیه Rapidminer باشد. نمودار چگالی: ![http://i.stack.imgur.com/Sk3xK.png](http://i.stack.imgur.com/uMRQ4.png) به این معنی است که 3 یا 4 خوشه باید نتیجه خوشه بندی باشند: یک خوشه (1 |1) تا (5|6)، یک یا دو برای نقاط Z = 5 و یکی برای ناحیه همپوشانی (6|1) تا (11|6). بر اساس «تراکم»، من به بسته R «DBSCAN» ضربه زدم. بهترین نتیجه ای که می توانستم به دست بیاورم نتیجه ای بود که در تصویر بالا وجود داشت. بنابراین دقیقاً آن چیزی نیست که من انتظار داشتم، زیرا منطقه همپوشانی به عنوان یک خوشه جداگانه شناخته نشد. آیا ایده ای دارید که کدام الگوریتم نتایج مورد انتظار من را ارائه دهد؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/pqEpC.png)
خوشه بندی چگالی
69172
من در حال انجام تجزیه و تحلیل ساختارهای نهفته هستم. می خواستم بدانم که آیا استفاده از متغیرهای ترکیبی با توجه به اینکه معیارهای مرتبط با هر یک از سازه های پنهان تا 80 مورد استفاده می کند، قابل قبول است؟
متغیرهای ترکیبی در SEM
13053
من سعی می کنم یک خط + منحنی نمایی را برای برخی از داده ها جا بدهم. برای شروع، من سعی کردم این کار را بر روی برخی از داده های مصنوعی انجام دهم. تابع این است: $$y=a+b\cdot r^{(x-m)}+c\cdot x$$ در واقع یک منحنی نمایی با یک بخش خطی و همچنین یک پارامتر تغییر افقی اضافی (_m_) است. با این حال، زمانی که من از تابع «nls()» R استفاده می‌کنم، حتی اگر از همان پارامترهایی استفاده کنم که در وهله اول برای تولید داده‌ها استفاده می‌کردم، خطای ترسناک «ماتریس گرادیان منفرد در تخمین‌های پارامتر اولیه» را دریافت می‌کنم. من الگوریتم‌های مختلف، مقادیر شروع متفاوت را امتحان کرده‌ام و سعی کرده‌ام از «بهینه» برای به حداقل رساندن مجموع باقی‌مانده مربع‌ها استفاده کنم، همه اینها فایده‌ای نداشت. خوانده‌ام که دلیل احتمالی این امر می‌تواند پارامترسازی بیش از حد فرمول باشد، اما فکر نمی‌کنم اینطور باشد (آیا؟) آیا کسی پیشنهادی برای این مشکل دارد؟ یا این فقط یک مدل نامناسب است؟ یک مثال کوتاه: #پارامترهای مورد استفاده برای تولید داده reala=-3 realb=5 realc=0.5 realr=0.7 realm=1 x=1:11 #مقدار x - من 11 داده نقطه زمانی دارم #خطی+تابع نمایی y=reala + realb*realr^(x-realm) + realc*x #کمی نویز اضافه کنید تا از داده‌های باقیمانده صفر جلوگیری کنید jitter_y = jitter(y,amount=0.2) testdat=data.frame(x,jitter_y) #رگرسیون را با مقادیر شروع مشابه با پارامترهای واقعی امتحان کنید linexp=nls(jitter_y~a+b*r^(x-m)+c*x ، داده=testdat، start=list(a=-3، b=5، c=0.5، r=0.7، m=1)، trace=T) با تشکر
خطای گرادیان منفرد در nls با مقادیر شروع صحیح
44797
من نمی دانم چگونه داده های تلفیقی را وارد کنم (من داده های مربوط به 42 کشور در طول 7 سال در هر متغیر را دارم) در SPSS و سپس یک رگرسیون اجرا کنم. تا کنون، SPSS مشاهدات را به کشور و سال خاصی اختصاص نمی دهد و هر متغیر را مستقل در نظر می گیرد. ** چگونه می توانم به SPSS بگویم که من 42 مشاهده (یک مورد برای هر کشور) به مدت 7 سال در هر متغیر دارم و نه 294 (7*42) مشاهده؟** من به متغیرهای تعامل نگاه می کنم و فکر می کنم این ممکن است کلید اصلی باشد. . آیا به یک اصطلاح تعامل (کشور*سال*متغیر) نیاز دارم؟ هنگامی که من موفق به وارد کردن صحیح آن شدم، 4 متغیر مستقل یک متغیر پنهان را تشکیل می دهند که قرار است روی یک متغیر وابسته تأثیر بگذارد. من برای این منظور از SPSS Amos استفاده خواهم کرد.
وارد کردن پانل داده (داده های سری زمانی مقطعی) در SPSS
9259
من یک رگرسیون مبتنی بر GAM را با استفاده از بسته R gamlss اجرا می‌کنم و با فرض توزیع بتای صفر داده‌ها. من فقط یک متغیر توضیحی در مدل خود دارم، بنابراین اساساً این است: «mymodel = gamlss(response ~ input, family=BEZI)». الگوریتم ضریب $k$ را برای تأثیر متغیر توضیحی بر میانگین ($\mu$) و p-value مربوط به $k(\text{input})=0$ به من می دهد، چیزی شبیه به: Mu link تابع: logit Mu Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -2.58051 0.03766 -68.521 0.000e+00 ورودی -0.09134 0.01683 -5.428 6.118e-08 همانطور که در مثال بالا می‌بینید، فرضیه $k(\ext) input})=0$ با رد شد اعتماد به نفس بالا سپس مدل تهی را اجرا می کنم: «null = gamlss(پاسخ ~ 1، خانواده=BEZI)» و احتمالات را با استفاده از آزمون نسبت درستنمایی مقایسه می کنم: p=1-pchisq(-2*(logLik(null)[1]- logLik(mymodel)[1])، df(mymodel)-df(null)). در تعدادی از موارد، من $p> 0.05$ دریافت می کنم، حتی زمانی که ضرایب در ورودی بسیار معنی دار گزارش شده است (مانند بالا). من این را کاملاً غیرعادی می‌دانم - حداقل در تجربه من با رگرسیون خطی یا لجستیک این اتفاق نیفتاده است (در واقع، زمانی که من از گامای تنظیم‌شده صفر با gamlss استفاده می‌کردم، این اتفاق هرگز رخ نداده است). سوال من این است: آیا هنوز هم می توانم به وابستگی بین پاسخ و ورودی اعتماد کنم در حالی که این مورد وجود دارد؟ با تشکر فراوان
اهمیت ضرایب رگرسیون (GAM) زمانی که احتمال مدل به طور قابل توجهی بالاتر از صفر نیست
13054
فرض کنید یک مجموعه داده $Y_{1}، ...، Y_{n}$ از یک توزیع پیوسته با چگالی $p(y)$ دارید که در $[0,1]$ پشتیبانی می‌شود که مشخص نیست، اما $n $ بسیار بزرگ است، بنابراین تخمین چگالی هسته (به عنوان مثال) $\hat{p}(y)$ بسیار دقیق است. برای یک برنامه خاص، باید داده‌های مشاهده شده را به تعداد محدودی از دسته‌ها تبدیل کنم تا مجموعه داده جدیدی $Z_{1}، ...، Z_{n}$ با تابع جرم ضمنی $g(z)$ به دست آید. یک مثال ساده می تواند $Z_{i} = 0$ زمانی که $Y_{i} \leq 1/2$ و $Z_{i} = 1$ زمانی که $Y_{i} > 1/2$ باشد. در این مورد تابع جرم القایی $$ \hat{g}(0) = \int_{0}^{1/2} \hat{p}(y) dy, \ \ \ \hat{g}( 1) = \int_{1/2}^{1} \hat{p}(y)dy$$ دو پارامتر تنظیم در اینجا تعداد گروه‌ها، $m$، و $(m-1) هستند. بردار طول آستانه ها $ $\lambda$. تابع جرم القایی را با $\hat{g}_{m,\lambda}(y)$ نشان دهید. من رویه‌ای را می‌خواهم که پاسخ دهد، برای مثال، بهترین انتخاب $m، \lambda$ چیست به طوری که افزایش تعداد گروه‌ها به $m+1$ (و انتخاب بهینه $\lambda$ در آنجا) بهبود ناچیزی حاصل شود؟ من احساس می کنم شاید بتوان یک آمار آزمایشی ایجاد کرد (شاید با تفاوت در واگرایی KL یا چیزی مشابه) که توزیع آن قابل استخراج باشد. ایده یا ادبیات مرتبطی دارید؟ **ویرایش:** من اندازه‌گیری‌های زمانی یک متغیر پیوسته را با فواصل مساوی دارم و از یک زنجیره مارکوف ناهمگن برای مدل‌سازی وابستگی زمانی استفاده می‌کنم. صادقانه بگویم، زنجیره های مارکوف حالت گسسته بسیار ساده تر هستند و این انگیزه من است. داده های مشاهده شده درصد هستند. من در حال حاضر از یک گسسته سازی موقت استفاده می کنم که برای من بسیار خوب به نظر می رسد، اما فکر می کنم این یک مشکل جالب است که در آن یک راه حل رسمی (و عمومی) امکان پذیر است. **ویرایش 2:** در واقع به حداقل رساندن واگرایی KL معادل عدم گسسته سازی داده ها است، بنابراین این ایده کاملاً منتفی است. من بدنه را بر این اساس ویرایش کردم.
تعیین گسسته سازی بهینه داده ها از یک توزیع پیوسته
94543
رگرسیون لجستیک می تواند به پیش بینی یک مقدار کمک کند که آیا اتفاق می افتد یا خیر. من می خواهم بدانم چگونه می توانم این کار را با استفاده از sklearn انجام دهم. من می خواهم بدانم که آیا این رویداد رخ می دهد یا خیر. من مجموعه داده عظیمی دارم (20 هزار خط و 20 ستون). داده های من 19 ستون به عنوان پیش بینی و آخرین ستون به عنوان هدف (مقادیر بین 0-10) دارد. برای ساده کردن کار، از داده های تصادفی استفاده می کنم تا بفهمم چگونه می توانم داده ها را تفسیر کنم. A,B,C: پیش‌بینی‌کننده هدف: به‌عنوان هدف از sklearn import linear_model pandas import به‌عنوان مجموعه داده pd = pd.DataFrame({'A':np.random.rand(100)*1000، 'B':np.random. rand(100)*100، 'C':np.random.rand(100)*10، 'target':np.random.rand(100)}) predictors= dataset.ix[:,['A','B','C']].values ​​target = database.ix[:,['target' ]].values ​​lr = linear_model.LogisticRegression() lr.fit(پیش بینی کننده ها، هدف) linear_model.LogisticRegression(C=1.0، class_weight=هیچ‌کدام، دوگانه=نادرست، fit_intercept=درست، intercept_scaling=1، penalty='l2'، random_state=هیچ‌کدام، tol=0.0001) حالا، آیا باید رسم کنم (lr.predict_proba) تا احتمال هر عنصر را بدست بیاورم؟ برای اینکه احتمال هر خط را داشته باشم چه کاری باید انجام دهم.
چگونه از رگرسیون لجستیک (scikit-learn) برای پیش بینی مقادیر استفاده کنیم؟
9253
برای $\nu$-SVM (برای هر دو حالت طبقه بندی و رگرسیون) $\nu \in (0;1)$ باید انتخاب شود. راهنمای LIBSVM پیشنهاد می‌کند از جستجوی شبکه‌ای برای شناسایی مقدار بهینه پارامتر $C$ برای $C$-SVM استفاده کنید، همچنین توصیه می‌کند که مقادیر زیر را امتحان کنید $C = 2^{-5}، 2^{-3}، \dots، 2^{15}$. بنابراین سوال این است که آیا توصیه‌هایی برای مقادیر پارامتر $\nu$ در مورد $\nu$-SVM وجود دارد؟
انتخاب پارامتر $\nu$-svm
44790
من سعی می کنم از یک glm با توزیع دوجمله ای (لینک لاجیت) برای تجزیه و تحلیل داده های منحنی پاسخ دوز برای اثرات کشنده سویه های مختلف باکتری استفاده کنم. اکنون می‌خواهم دوز کشنده 50 (LD50) را برآورد کنم. مدل من به سادگی این شکل است: بقا ~ a + b*dose بنابراین از آنجایی که من یک پیوند لاجیت دارم، به دست آوردن تخمین برای LD50 (یعنی p=0.5) به سادگی به معنی تقسیم -a/b است. با این حال، من همچنین می‌خواهم فواصل اطمینان این تخمین‌ها را بدانم و اینجاست که مطمئن نیستم چه کار کنم. اگر کسی پیشنهادی برای این موضوع داشته باشد، عالی است.
پیش بینی معکوس از glm دو جمله ای - چگونه فواصل اطمینان را بدست آوریم؟
69175
یک شرکت دارویی در آستانه شروع آزمایشات بالینی دو داروی جدید است که برای کمک به افراد برای ترک سیگار تولید کرده است. بر اساس تجربیات و نتایج آزمایشگاهی فعلی، شرکت داروسازی معتقد است که احتمال پذیرش هر دو دارو 70 درصد و تنها یک مورد به احتمال 20 درصد است. اگر هر دو مورد پذیرش قرار گیرند، شرکت دارو 10 میلیون دلار درآمد خواهد داشت. اگر یکی پذیرفته شود، شرکت دارویی 4 میلیون دلار سود خواهد داشت، در حالی که اگر هر دو رد شوند، 2 میلیون دلار ضرر خواهند کرد. سود مورد انتظار شرکت دارو چقدر است؟ آیا این: - 7.2 میلیون دلار؟ 7.6 میلیون دلار؟ 10.0 میلیون دلار؟ هیچ کدام از موارد بالا نیست؟
محاسبه سود مورد انتظار از احتمالات
44793
من یک الگوریتم خوشه‌بندی دارم که به صورت تکراری مانند K-means کار می‌کند، اما محدودیت‌هایی در اندازه‌های خوشه با آستانه‌های پایین‌تر و بالا وجود دارد. آیا به طور کلی اثبات همگرایی K-means را می شناسید؟ آیا آنها در مورد این الگوریتم جایگزین قابل اجرا هستند؟
همگرایی K-means
103540
من یک مشکل داده بزرگ با تعداد زیادی پیش بینی کننده و یک پاسخ غیر منفی (زمان تا بازرسی) دارم. برای یک مدل کامل، من از یک glm با پاسخ توزیع شده گاما (link=log) استفاده می کنم. با این حال من می خواهم یک مدل کوچک پیدا کنم. رویکرد بهترین زیر مجموعه glm برای من کار نمی کند زیرا حافظه من تمام می شود - به نظر می رسد که برای تنظیمات من به اندازه کافی کارآمد نیست (داده های بزرگ، رایانه ضعیف). بنابراین من به رویکرد LASSO (با استفاده از بسته‌های R «lars» یا «glmnet» تغییر کردم. «glmnet» حتی برخی از خانواده‌های توزیع را به جز گاوسی ارائه می‌کند، اما خانواده گاما را نه. چگونه می توانم یک تنظیم کمند برای glm با پاسخ توزیع شده گاما در R انجام دهم؟ آیا می تواند یک مدل Cox (Cox net) برای مدل سازی نوعی زمان انتظار باشد؟ ویرایش: از آنجایی که داده‌های من شامل تمام نقاط داده با اطلاعات مربوط به زمان پس از آخرین بازرسی است، استفاده از یک مدل COX واقعاً مناسب به نظر می‌رسد. قرار دادن داده‌ها در قالب مناسب (همانطور که «Surv» انجام می‌دهد) و فراخوانی «glmnet» با «family=cox» می‌تواند در مورد «زمان‌های انتظار» یا تجزیه و تحلیل بقا کار من را انجام دهد. در داده های من، تمام نقاط داده مرده هستند و مدل کاکس اجازه می دهد تا تجزیه و تحلیل شود که کدام یک زودتر مرگ شدند. به نظر می رسد که در این مورد نیازی به family=gamma نیست. نظرات بسیار استقبال می شود.
مدل خطی تعمیم یافته با تنظیم کمند برای پاسخ غیر منفی مداوم
45441
با توجه به $X_1$، $X_2$ متغیرهای تصادفی مستقل EXP(1) هستند، چگونه انتظارات زیر را محاسبه کنم: * $E[X_1 | X_1 + X_2]$ * $P(X_1 > 3 | X_1 + X_2)$ * $E[X_1 | دقیقه (X_1، t)]$
انتظار شرطی مشروط بر متغیر تصادفی نمایی
94548
امیدوارم بتوانید به من در درک تابع چگالی احتمال برای توزیع نمایی کمک کنید. با توجه به اینکه PDF توزیع به صورت زیر توصیف می شود که x > 0: $$\lambda e^{-\lambda x}$$ چرا در λ ضرب می کنیم؟ مطمئناً من یک چیز اساسی را در اینجا از دست می دهم، اما به نظر می رسد که اگر زمان را به رویداد مدل سازی کنیم، استفاده از e و توان ها کافی است. آیا به این دلیل است که ممکن است انتظار داشته باشیم که رویداد چندین بار در بازه زمانی اتفاق بیفتد؟ پیشاپیش از شما متشکرم.
توزیع نمایی PDF: چرا در لامبدا ضرب کنیم؟
40967
من روی یک مجموعه داده کارآزمایی بالینی با پاسخ باینری کار می کنم. همه متغیرهای مستقل نیز باینری هستند. اولین انگیزه من این بود که به سادگی یک رگرسیون logit/probit استاندارد را اجرا کنم و با آن تمام کنم. اما بعد از اینکه کمی بیشتر در مورد آن فکر کردم، به این فکر کردم: آیا کار دیگری وجود دارد که بتوانم انجام دهم؟ نگرانی من از این واقعیت ناشی می شود که همه متغیرهای RHS (سمت راست، یعنی متغیرهای مستقل) نیز باینری هستند (که برای من اولین است). پیشنهادی دارید؟
آیا جایگزین بهتری برای رگرسیون logit/probit زمانی که همه متغیرهای وابسته دوگانه هستند وجود دارد؟
99604
من 1370 ژن را که از تجزیه و تحلیل توالی یابی تراشه به دست آمده اند و 652 ژن را که ژن های تنظیم شده متفاوتی هستند که با تجزیه و تحلیل آرایه موش affymetrix 430.2.0 به دست آمده اند مقایسه کرده ام. وقتی هر دو لیست ژن ها را قطع می کنم، 37 ژن مشترک دریافت می کنم. من می خواهم اهمیت این همپوشانی را محاسبه کنم. من در نظر داشتم از «فایپر» در R استفاده کنم، اما این به تعداد کل ژن ها نیاز دارد. من گیج هستم که کدام شماره را بدهم. آیا باید تعداد کل کاوشگرها را از affymetrix Chip بدهم یا باید کل شماره ژنوم موش را از داده های توالی یابی تراشه بدهم؟ آیا کسی می تواند راه هایی برای انجام این آزمون معناداری در R پیشنهاد دهد؟ با تشکر
تست هایپرهندسی
58071
من پلات‌های «kmeans» متعددی دارم که در R ایجاد کرده‌ام. به‌طور خاص من هفته‌ای ۵ دلار دارم و هر هفته یک دلار «kmeans» تولید می‌کنم. من روی بردارها خوشه بندی می کنم. اکثر بردارها در نمودارهای $5$ `kmeans` در هر نمودار رخ می دهند. آنچه من علاقه مند به تعیین آن هستم این است که کدام بردارها عضویت خوشه را تغییر داده اند. برای روشن شدن این موضوع، فرض کنید من یک بردار دارم که با کلمه فوتبال مشخص شده است، سپس می‌خواهم ببینم در week1، week2 و غیره به کدام خوشه تعلق دارد. آزمایش تغییر عضویت باید کار ساده ای باشد، برای هر خوشه بندی «kmeans»، به هر نقطه شناسه ای داده می شود که به کدام خوشه تعلق دارد. من 4 خوشه دارم، بنابراین هر هفته بردار مثال ما با نام فوتبال می تواند $1$، $2$، $3$، یا $4$ برچسب گذاری شود. راه حل ساده لوحانه این است که هر هفته برچسب را برای یک بردار خاص بررسی کنید. با این حال، این مورد نیست زیرا R به طور تصادفی برچسب ها را برای هر خوشه انتخاب می کند. من می دانم که این مورد است زیرا هر خوشه نشان دهنده دسته ای از منحنی ها است. به وضوح می توانید ببینید که الگوریتم kmeans بردارها را به 4 کلاس منحنی تقسیم کرده است. آیا راه هایی برای ثابت ماندن شناسه های برچسب برای هر خوشه وجود دارد؟ یعنی اگر خوشه ای که در week1 برچسب گذاری شده با شناسه $2$ منحنی خطی باشد، آنگاه خوشه هایی که در تمام هفته های باقیمانده $2$ برچسب گذاری شده اند همیشه خوشه خطی خواهند بود. آیا شرایط اولیه ای وجود دارد که بتوانم آن را به kmeans منتقل کنم تا این اتفاق بیفتد؟ من این سؤال را به جای stackoverflow در اینجا پست کردم زیرا معتقدم این سؤال به درک بیشتری از الگوریتم kmeans نیاز دارد.
شناسه‌های خوشه‌ای پایدار روی ورودی‌های مشابه با k-means
90318
من گاهی اوقات هنگام اجرای rugarch::ugarchforecast() مقادیر شکل زیر 4 را دریافت می کنم، اما rugarch:::.sstdexkurt() شکل زیر 4 را نمی پذیرد. rugarch:::.sstdexkurt() قرار است که کشش اضافی را برگرداند - توزیع دانش آموزی آیا این بدان معناست که rugarch::ugarchforecast() تخمین های شکل نادرستی را برمی گرداند؟ آیا می توانم از تخمین های شکل زیر 4 برای تخمین توزیع استفاده کنم؟
R: تابع پیش بینی rugarch با توزیع چوله-دانش آموز (sstd) تخمین های شکل غیرقانونی را برمی گرداند.
40965
من از libSVM برای یک مشکل طبقه بندی باینری استفاده می کنم. پس از اینکه به یک نمونه آزمایشی یک برچسب (1 یا -1) اختصاص داده شد، من همچنین می خواهم بدانم که چقدر احتمال دارد چنین برچسبی به آن اختصاص داده شود. من به محاسبه فاصله نمونه تا ابر صفحه در فضای ویژگی فکر می کنم. هر چه فاصله بزرگتر باشد، احتمال اینکه انتساب برچسب درست باشد بیشتر است. آیا تصور من درست است؟ یا آیا در حال حاضر چنین گزینه ای در libSVM برای هدف من وجود دارد؟
خروجی احتمالی برای طبقه بندی SVM باینری
62369
من یک رگرسیون OLS را اجرا می‌کنم و معلوم شد که تأثیر پیش‌بینی‌کننده اصلی من بر نتیجه Y به یکی از متغیرهای کنترل من (سن) بستگی دارد. تمرکز اصلی مقاله، توصیف میانجی‌های متعددی است که X را به Y پیوند می‌دهند، و تقسیم نمونه قدرت من را به شدت کاهش می‌دهد. گزینه های من چیست؟ من تعامل را بررسی کرده‌ام و نواحی اهمیت را محاسبه کرده‌ام، تقسیم نمونه‌ام بر اساس این مناطق اهمیت بسیاری از تأثیرات مهم من را از بین می‌برد. آه.. آیا درست است که تعامل را به سادگی در همه تحلیل‌ها لحاظ کنیم: به عنوان مثال، آیا گنجاندن تعامل به اندازه کافی تفاوت‌های زیرگروه را کنترل می‌کند؟
تفاوت های احتمالی زیر گروه در رگرسیون
20155
با توجه به این سوال در مورد طبقه بندی گروه ها که به طور قابل توجهی با هم تفاوت دارند، دو سوال تا حدی مبتدی/کلی دارم: 1. فرض کنید در حال انجام یک آزمون فرضیه (تفاوت بین دو میانگین) هستم و با اطمینان 95% صفر را رد می کنم. آلفا = 0.05). آیا این به این معنی است که می توانم مقادیر جدید را به A یا B با میزان موفقیت 95% پیش بینی/طبقه بندی کنم؟ اگر چنین است، چگونه می توان این کار را انجام داد؟ 2. مطمئن نیستم که سوال من در چه حوزه ای قرار می گیرد، اما آیا این به نوعی به بحث مدل سازی توضیحی در مقابل پیش بینی مربوط می شود؟
میانگین گروه های A و B به طور قابل توجهی متفاوت است. آیا می توانم یک طبقه بندی بسازم که مقادیر را به A یا B طبقه بندی کند؟
44795
بر اساس یافته های رصدخانه فضایی کپلر، ستاره شناس ست شوستاک در سال 2011 تخمین زد که در فاصله هزار سال نوری زمین، حداقل 30000 سیاره قابل سکونت وجود دارد (برگرفته از این مقاله ویکی پدیا). با استفاده از تخمین دکتر شوستاک، در کدام شعاع R از زمین (در سال نوری) می‌توان 95 درصد مطمئن بود که حداقل یک سیاره قابل سکونت وجود دارد؟
گیج سیاره فراخورشیدی
103545
من روی تخمین تابع چگالی کار می کنم و از کتابخانه scikit- Learn استفاده می کنم. به عنوان نمونه کد من به کد موجود در لینک زیر نگاه می کنم. شک من در این خط کد زیر است: Z = np.log(-clf.score_samples(XX)[0]) تابع clf.score_samples احتمالات Log هر نقطه داده در X را برمی گرداند. چرا گزارش ثبت برای آن اعمال می شود بار دوم؟ Log(Log P(X)) مخفف چیست؟
مدل مخلوط گاوسی - تخمین چگالی
112955
من یک فرآیند MA(1) $y_t = \mu + \epsilon_t + \theta \epsilon_{t-1}$ را در R شبیه‌سازی کردم و سعی کردم عبارات خطای $\epsilon_t$ را فقط با محاسبه متوالی آنها بازیابی کنم (فرض می‌کنیم که پارامترهای $\mu$ و $\theta$). # متغیرها n = 30 mu = 10 تتا = 5 سیگما = 3 # شبیه سازی فرآیند MA(1) y = rep(1, n) epsilon1 = rep(1, n) prev.epsilon = 0 برای (t در 1: n) { epsilon1[t] = rnorm(1، میانگین = 0، sd = سیگما) y[t] = mu + epsilon1[t] + تتا * prev.epsilon prev.epsilon = epsilon1[t] } # بازیابی عبارات خطا epsilon2 = rep(1, n) epsilon2[1] = y[1] - mu برای (t در 2:n) epsilon2[t] = y[t] - mu - teta * epsilon2[t - 1] مشکل این است که این فرآیند بازیابی شامل خطاهای عددی است که تا زمانی منتشر می شود که مقادیر بازیابی شده $\epsilon_t$ به طور اساسی از مقادیر واقعی جدا شود. با این حال، من اندازه نمونه را به 30 تنظیم کردم که بسیار کوچک است. مقادیر از ترم 18 شروع به واگرایی می کنند و در اینجا آخرین مقادیر هستند: > epsilon1[n] [1] -0.6801702 > epsilon2[n] [1] -595.0506 چگونه می توانم با آن مشکل برخورد کنم؟ توجه داشته باشید که حجم نمونه واقعی بسیار بزرگتر از 30 است.
جلوگیری از انتشار خطاهای عددی
46866
من سعی می کنم در مورد استنتاج و به حداکثر رساندن اساساً EM سیستم های دینامیکی خطی (مثلاً فیلترهای کالمن) از کتاب تشخیص الگو و یادگیری ماشین بیشاپ بیاموزم. با این حال، من نمی توانم اشتقاق های ارائه شده در آنجا را دنبال کنم. من ایده اصلی فیلترهای کالمن را دارم و برای چه استفاده می شود. با این حال، من با مراحل یادگیری (عمداً مشتق معادلات و همه) گیج شده ام. آنها کمی پیچیده به نظر می رسند. من زمان زیادی را صرف تلاش برای کشف آنها کرده ام. اما من هنوز چند مشکل دارم. کسی میتونه به من پیشنهاد بده که از کجا میتونم ایده بگیرم چون در کتاب جزئیاتی از نحوه استخراج (معادلات) نداده اند. سوال من این است که چگونه به دست آمده است. این قطعه از تصویر دوم آخر است. ممکن است زیاد بپرسم اما واقعا دارم پیدا می کنم. سخت است که بفهمم این چگونه مشتق شده است، من واقعاً ممنون می شوم اگر کسی بتواند به من نکاتی بدهد! توضیحات تصویر در اینجا](http://i.stack.imgur.com/yJL5g.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/JuGNw.png) ![شرح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/XNsQy.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/rIPGS.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/FaQSN.png) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/5RMci.png) ![ توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/tnIaC.png) ![شرح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/GtpOL.png)
نشانگرهایی برای درک استنتاج استنتاج در سیستم های دینامیکی خطی
45445
من یک تحلیل عاملی بر روی 20 دلیل برای خرید 4 کالای مختلف انجام دادم. اینها در مقیاس لیکرت از 1 تا 5 با 5 بسیار مهم، 4 مهم و غیره رتبه‌بندی می‌شوند. . من این عوامل را به عنوان نمرات عامل رگرسیون در SPSS ذخیره کردم. سپس یک جدول بندی متقاطع با هر یک از کالاها به عنوان ردیف و امتیازهای ضریب رگرسیون به عنوان ستون انجام دادم. من از میانگین برای نمرات عامل رگرسیون استفاده کردم. انتظار داشتم که علامت امتیاز عامل و هر یک از کالاها در صورت وجود رابطه با آن امتیاز مثبت و در غیر این صورت منفی باشد. با این حال، علائم دقیقا معکوس هستند. بنابراین برای کالاهایی که فکر می‌کردم بالاترین میانگین فاکتور مثبت را دارند، من در واقع بالاترین نمره منفی را دریافت می‌کنم، و غیره.
میانگین نمرات عامل رگرسیون و صفات بازده جدول متقابل. چرا همه علائم مورد انتظار معکوس هستند؟
13052
من یک آزمایش دوره زمانی دارم که 8 گروه درمانی 12 ماهی را به مدت 24 ساعت با مشاهدات انجام شده در فواصل 5 ثانیه دنبال می کند. از جمله اندازه‌گیری‌های انجام شده، فاصله هر ماهی (بر حسب میلی‌متر) بین مشاهدات است. 24 ساعت به 1 دوره تاریک و 1 دوره روشن تقسیم می شود. در اینجا نموداری از حرکات 12 ماهی منفرد در گروه درمانی H برای ساعت اول دوره تاریکی آورده شده است: ![گروه کنترل در ساعت اول تاریکی](http://i.stack.imgur.com/naIsV. png) می بینید که برخی از ماهی ها دوره های طولانی عدم فعالیت دارند، برخی دوره های کوتاه مدت، و برخی دیگر هیچ _در این پنجره خاص_ ندارند. من باید داده های هر 12 ماهی در گروه درمان را به گونه ای ترکیب کنم که طول و تناوب دوره های استراحت در کل دوره تاریکی و کل دوره نور را شناسایی کنم. من باید این کار را برای هر گروه درمانی انجام دهم. سپس باید تفاوت بین طول دوره استراحت و فرکانس آنها را مقایسه کنم. من یک دختر آماری نیستم و کاملاً در دریا هستم. این مشکل برای من شبیه هم‌ترازی دنباله‌ای است (پس‌زمینه بیوانفوماتیک من)، بنابراین من به مدل‌های Hidden Markov فکر می‌کنم، اما این ممکن است خیلی دور از ذهن باشد. آیا کسی می تواند یک رویکرد خوب برای این مشکل و شاید یک مثال کوچک در R پیشنهاد دهد؟ با تشکر
به دنبال الگوی رویدادها در یک سری زمانی
94546
من به دنبال پیوند بین تورم و ورشکستگی برای یک پروژه اقتصادسنجی هستم. من داده های ورشکستگی سه ماهه خام و داده های CPI سه ماهه خام برای انگلستان (تقریباً 100 نمونه) از 1988-2013 را دارم. هر دوی اینها در 5% غیر ثابت هستند و هر دو در بررسی داده های خام I(1) هستند. من از سطوح 5% برای تمام تست ها استفاده می کنم. با این حال، فرضیه من این است که **تفاوت‌های میانگین نرخ تورم بر ورشکستگی‌ها تأثیر می‌گذارد** (بنابراین مقادیر بالا یا پایین تورم باعث ورشکستگی بالاتر می‌شوند). نرخ دهید (و سپس تفریق میانگین را انجام دهید). محاسبه در آمار: abs(d.logCPI - mean(d.logCPI)). و، من از گزارش ورشکستگی ها استفاده می کنم، زیرا انتظار دارم در طول زمان با افزایش تعداد شرکت ها، رشد تصاعدی وجود داشته باشد. من چند سوال در این مورد دارم: 1. آیا باید ثابت بودن را روی داده های خام یا تغییراتی که فرضیه من بر آن استوار است (d.log CPI و logInsolvencies) آزمایش کنم. 2. تفاوت گزارش CPI در هنگام اجرا ثابت است dfuller، آیا این بنابراین I(0) است یا I(1) به این دلیل است که داده خام است؟ فرضیه من بر اساس تفاوت گزارش است، بنابراین آیا درصد تغییر CPI (تورم) از نظر فنی داده های خام من است؟ 3. آزمایش روی داده‌های خام ورشکستگی، I(1) را نشان می‌دهد، اما آزمون‌های ورود به سیستم ثابت و بدون تفاوت هستند، بنابراین آیا I (0) است؟ استفاده از تفاوت گزارش‌های CPI و گزارش ورشکستگی، تأثیر تورم (در تعداد ورشکستگی) را به من نشان می‌دهد. اساساً من سعی می کنم بفهمم که آیا: 1\. من باید ثابت بودن داده های خام، داده های تغییر یافته یا هر دو را بررسی کنم. 2\. چگونه این با ترتیب ادغام تفسیر می شود. 3\. اگر گزارش داده‌ها ثابت به نظر می‌رسد، آیا این به معنای ادغام آن با I(1) است؟
درک ثابت بودن با تورم
13056
فرض کنید من می خواهم مدلی بسازم تا نوعی نسبت یا درصد را پیش بینی کند. به عنوان مثال، فرض کنید می‌خواهم تعداد پسران در مقابل دخترانی را که در یک مهمانی شرکت می‌کنند پیش‌بینی کنم، و ویژگی‌های مهمانی که می‌توانم در مدل استفاده کنم مواردی مانند میزان تبلیغات برای مهمانی، اندازه محل برگزاری، یا وجود آن است. هر گونه الکل در مهمانی و غیره خواهد بود. (این فقط یک مثال ساختگی است؛ ویژگی ها واقعاً مهم نیستند.) سؤال من این است: تفاوت بین پیش بینی نسبت در مقابل درصد چیست و مدل من چگونه است. بسته به اینکه کدام را انتخاب کنم تغییر می کند؟ آیا یکی بهتر از دیگری است؟ آیا عملکرد دیگری بهتر از هر کدام است؟ (من واقعاً به اعداد مشخص نسبت به درصد اهمیت نمی دهم؛ فقط می خواهم بتوانم تشخیص دهم که کدام احزاب به احتمال زیاد «مهمانی پسرانه» در مقابل «پارتی دخترانه» هستند.) برای مثال، من هستم فکر کردن: * اگر بخواهم درصدی را پیش بینی کنم (مثلا # پسر / (# پسر + # دختر)، پس از آنجایی که ویژگی وابسته من بین 0 و 1 محدود شده است، احتمالاً باید از چیزی مانند لجستیک استفاده کنم. رگرسیون به جای رگرسیون خطی * اگر بخواهم نسبتی را پیش بینی کنم (مثلاً «# پسر / # دختر» یا «# پسر / (1 + # دختر)» برای جلوگیری از تقسیم بر صفر خطاها. ویژگی وابسته مثبت است، بنابراین ممکن است قبل از استفاده از یک رگرسیون خطی، نوعی تبدیل (log?) اعمال کنم (یا مدل دیگری؟ چه نوع مدل های رگرسیونی برای مثبت استفاده می شود؟ داده های بدون شمارش؟) * آیا به طور کلی بهتر است به جای نسبت، درصد را پیش بینی کنیم (بگوییم) و اگر چنین است، چرا؟
ساخت یک مدل خطی برای نسبت به درصد؟
44796
من در حال حاضر روی مدل های Hidden Markov کار می کنم. می دانم که ابتدا باید دنباله مشاهده را آموزش دهیم تا پارامترهای مدل مانند احتمال اولیه و انتقال را بدست آوریم. و این با استفاده از Baum-Welch انجام می شود (L.E Baum et al, 1970). حالت‌های پنهان توابع چگالی احتمال چند متغیره پیوسته هستند که تقارن بیضی دارند. اما این الگوریتم زمانی با مشکلاتی مواجه می شود که چگالی حالت ها لگ مقعر نباشد. (لیپوراس، 1982). لطفاً در درک رابطه بین چگالی که مقعر غیر لگاریتمی است و چگالی که دارای تقارن بیضی است به من کمک کنید. با تشکر
توابع چگالی با تقارن بیضی شکل
45443
چگونه می توانم پسین غیرعادی شده را بنویسم $ f(p_1, p_2 | Y) = (z_1-1)*log(p_1) + (n_1-z_1-1)*log(1-p_1) + (z_2-1)*log (p_2) + (n_2-z_2-1)*log(1-p_2) $ از نظر log odds-ratio $\alpha$ و ورود شانس-محصول $\eta$؟ $\alpha = log \left(\frac{p_2/(1-p_2)}{p_1/(1-p_1}\right) $ و $\eta = log \left(\frac{p_2}{1-p_2} \times \frac{p_1}{1-p_1}\right)$ که در آن z_1، n_1، z_2 و n_2 ثابت هستند.
توزیع خلفی را مجدداً پارامتریزه کنید
29760
من اخیراً شروع به کار بر روی پایان نامه کارشناسی ارشد خود کرده ام که با همکاری دانشگاهم و یک شرکت فناوری اطلاعات است. مشکل از دیدگاه شرکت، شناسایی همبستگی‌ها در کمپین‌های بازاریابی اینترنتی آنها برای خواص مختلف، با هدف اعمال این اطلاعات در تبلیغات آینده به منظور افزایش معیارهای مربوطه (به عنوان مثال کلیک یا نرخ تبدیل) است. حوزه پایان نامه برای من تا حدودی جدید است، حتی اگر اصول اولیه را در مورد آمار، الگوریتم ها و هوش مصنوعی دارم. من در حال حاضر ایده استفاده از تکنیک های داده کاوی را در مجموعه داده ها، و به طور خاص تر، قوانین کاوی ارتباطی را که توسط Agrawal و همکارانش توضیح داده شده است، دنبال می کنم. (1993). استخراج قواعد انجمنی بر روی پایگاه‌های داده تراکنشی به جای رابطه‌ای کار می‌کند، اگرچه دومی را می‌توان به اولی تبدیل کرد با این مضرات که جدول جدید فوق‌العاده بزرگ می‌شود، به خصوص با در نظر گرفتن طبیعی‌ترین نوع تراکنش در این مورد یک برداشت است (یعنی یک ردیف جدول برای هر بار نمایش یک تبلیغ) که به راحتی منجر به میلیون‌ها ردیف می‌شود که تنها کسری منجر به کلیک می‌شود. (یک سوال مرتبط ممکن است یافتن قوانین ارتباطی برای یک مقدار معین باشد، اما هنوز پاسخی به آن داده نشده است.) بنابراین ایده من این است که یک جدول تراکنش از برداشت ها از داده های رابطه ای بسازم، یک الگوریتم قانون تداعی را اعمال کنم و در نهایت هر قانون را فیلتر کنم. که منجر به کلیک نمی شود، زیرا چنین قوانینی حداقل در حال حاضر جالب توجه نیستند. ** سوالی که می‌خواهم بپرسم این است که آیا این یک رویکرد معقول است؟ این ممکن است برای شرکتی که از نتیجه استفاده می کند مشکلی ایجاد نکند، اما از نظر دانشگاهی من می خواهم پایه های خود را پوشش دهم. **اگر این رویکرد خوبی نیست، کدام حوزه ها ممکن است برای این هدف مناسب تر باشند؟** دریغ نکنید که بپرسید آیا چیزی وجود دارد که می خواهید توضیح دهم!
قوانین انجمن معدن در مورد داده های رابطه ای
20250
آیا در صورت نیاز به 250000 عدد تصادفی، مولد اعداد تصادفی در SPSS قابل استفاده خواهد بود یا تصادفی بودن شروع به انحطاط خواهد کرد؟ از راه دیگری پرسیده شد، چه محدودیت های عملی برای استفاده از مولد اعداد تصادفی در SPSS برای تولید تعداد زیادی اعداد تصادفی وجود دارد؟
آیا محدودیتی برای تولید اعداد تصادفی SPSS وجود دارد؟
44421
من با افسانه گراف TraMineR مشکل دارم. من 4 آنتروپی مختلف را برای 4 گروهی که در حال تجزیه و تحلیل هستم محاسبه کرده ام و می خواهم آنها را با استفاده از تابع 'seqplot.tentrop' در همان نمودار رسم کنم. با این حال، افسانه پیش فرض خیلی بزرگ است و من آن را به طور جداگانه با کاهش ابعاد ترسیم می کنم، اما نمی توانم رنگ های افسانه را در نسخه جدیدی که با آخرین دستور زیر ایجاد کرده ام، بازتولید کنم. plot_colors <- c(آبی، قرمز، سبز جنگلی، بنفش) seqplot.tentrop(myseq، group = job$cohort، ylim = c(0، 1)، col=plot_colors، withlegend=FALSE) افسانه (راست پایین، نامها (myseq)، c(1974-1978،1982-1986،1990-1994، 1998-2001)، cex=0.8، col=plot_colors) آیا امکان تغییر رنگ ها/خطوط نقطه چین وجود دارد؟
تابع Legend و TraMiner seqplot.tentrop
104435
من سعی می‌کنم احتمال برد تخمینی را بین دو بازیکنی که رتبه‌بندی‌هایشان (فرض کنید چیزی شبیه رتبه الو در شطرنج باشد) محاسبه کنم. به عنوان مثال با توجه به امتیاز بازیکن A از 2000، امتیاز بازیکن B از 1800، A احتمال برد بالاتری نسبت به B خواهد داشت که می تواند با تابع f تعیین شود، به عنوان مثال. A 60% شانس دارد که B را شکست دهد. ارزش رتبه بندی خود بر اساس نتیجه بازی های گذشته است. بازیکنانی که بازی‌های کمی دارند ممکن است رتبه‌بندی ناپایدار داشته باشند (یعنی نمونه‌های کافی برای تشخیص درست رتبه‌بندی مناسب وجود ندارد). از این رو من تعداد بازی‌ها را معادل تعداد نمونه‌ها می‌دانم، و هر چه تعداد بازی‌ها بیشتر باشد، اطمینان بیشتری نسبت به رتبه‌بندی بازیکن دارم. سوال من این است که با توجه به سطح اطمینان متفاوتی برای رتبه بندی بازیکن A و بازیکن B در بالا (مثلاً بازیکن A 100 بازی انجام داده است در حالی که بازیکن B فقط 1000 بازی انجام داده است)، آیا راهی وجود دارد که بتوانم سطح اطمینان احتمال برد را استخراج کنم؟
فاصله اطمینان از مقادیر با تعداد نمونه های مختلف محاسبه می شود
62087
من در ارزیابی کوواریانس یک تبدیل غیرخطی برای دو بردار $s_0^*$ و $s_1^*$ $$\left مشکل دارم| \begin{array}c} s_0^*\\\s_1^* \end{array} \right| \sim N\left( \left| \begin{array}{c}\mu_0^*\\\ \mu_1^* \end{array} \right|,\left| \begin{array}{c}\Sigma_s & \Gamma_{01} \\\ \Gamma_{10} & \Sigma_s \end{array} \right)$$ می‌خواهم عبارت واریانسی را پیدا کنم $$ s_1 -s_0=\frac{\exp(s_1^*)}{1+\exp(s_1^*)}-\frac{\exp(s_0^*)}{1+\exp(s_0^*) }=\text{logit}(s_1^*)-\text{logit}(s_0^*)\\\$$ $\text{Var} \left(\frac{\exp(s_1^*)}{1+\exp(s_1^*)}-\frac{\exp(s_0^*)}{1+\exp(s_0^*)}\راست )= \text{Var}(s_1)+\text{Var}(s_0)-2\text{cov}(s_1,s_0)$، من می دانم چگونه می توانم واریانس دو عبارت واریانس از روش دلتا، اما من در یافتن عبارتی برای کوواریانس بین این دو مشکل دارم. من حدس می زنم که باید به نحوی از بسط های تیلور استفاده کنم، اما خیلی سریع برای من متوقف می شود. راهنمایی در مورد اینکه چگونه باید برای یافتن این کوواریانس اقدام کنم؟ من با رابطه $\text{cov}(s_0,s_1)=\text{E}(s_0s_1)+\text{E}(s_0)\text{E}(s_1)$ آشنا هستم، بنابراین چنین است که تنها کاری که باید انجام دهم این است که $\text{E}(s_0 s_1)$ را پیدا کنم؟ من خیلی اینجا گیر کرده ام، بنابراین هر کمکی بسیار قدردانی می شود.
کوواریانس متغیرهای تبدیل شده لاجیت
90311
من در حال مشخص کردن برخی از آشکارسازها هستم. هر آشکارساز از یک سری عناصر تشکیل شده است، فکر کردن به یک CCD در یک دوربین یک تقریب معقول است. برای هر آشکارساز توزیعی دارم که نشان دهنده پاسخ هر پیکسل است. در تشبیه CCD، تقریباً معادل ترسیم یک CDF است که شدت مورد نیاز برای شلیک یک پیکسل معین را نشان می‌دهد (من نمی‌دانم که CCD‌ها به این شکل کار می‌کنند یا خیر). در حالی که هر آشکارساز منحصر به فرد است، نمودارها همگی نسبتاً مشابه هستند (و هیچ شباهتی به توزیع پارامتری ندارند). زیرا من مدلی دارم که این منحنی را به عنوان خروجی تولید می کند. می‌خواهم با تعیین محدودیت‌هایی روی شکل منحنی، یک کار بهینه‌سازی کوچک را اجرا کنم. برای مثال من ممکن است بخواهم 20٪ از وکسل ها به یک مقدار حداقل و 80٪ کمتر از مقداری حداکثر باشد. من سعی می‌کنم راه بهینه‌ای را برای تصمیم‌گیری در مورد اینکه از کدام مقدار به عنوان محدودیت استفاده کنم، بیاندیشم. به عنوان مثال، مقداری که در آن 20٪ از پیکسل ها شلیک می شوند، با بسیاری از مقادیر دیگر همبستگی نزدیک دارد، در حالی که مقداری که در آن 40٪ از پیکسل ها شلیک می شوند، بسیار کمتر است. آیا روشی وجود دارد که با استفاده از آن بتوانم از ماتریس همبستگی خود استفاده کنم تا تصمیم بگیرم که کدام سه مقدار برای اعمال محدودیت هستند.
انتخاب محدودیت‌های بهینه برای بهینه‌سازی زمانی که محدودیت‌های بالقوه همبسته هستند
62086
من یک طرح آزمایشی 2x2 دارم. در آزمایش، من همچنین صلاحیت های حرفه ای شرکت کنندگان را جمع آوری کردم (متغیر طبقه بندی - بله / خیر). من می خواهم تأثیر کنترل این متغیر را روی MSE آزمایش کنم. من درک می کنم که در ANCOVA، متغیر کمکی یا یک متغیر فاصله ای یا ترتیبی است. بنابراین، اگر مدارک حرفه ای را به عنوان متغیر اضافی وارد کنم، آیا باید به آزمون به عنوان ANCOVA اشاره کنم؟ یا باید یک متغیر مسدود کننده باشد زیرا مدرک صلاحیت پروفسور مقوله ای است. پیشاپیش از پاسخ های شما متشکرم
آیا متغیرهای کمکی می توانند متغیرهای طبقه ای باشند؟
99602
من باید یک الگوریتم را پیاده سازی کنم (یا یک پیاده سازی پیدا کنم) و آن را با استفاده از روش مونت کارلو بهینه کنم. این باید یک NP سخت باشد مانند مشکل فروشنده مسافر یا مشکل کوله پشتی. چگونه می توان یک مسئله را دقیقاً بهینه کرد؟ همچنین باید مقدار بهینه را داشته باشم و با آن مقایسه کنم، آیا سایتی وجود دارد که برای چنین مشکلاتی بهینه را ارائه دهد؟ (چون چیزی پیدا نکردم) ممنون
بهینه سازی اجرای سخت NP با استفاده از روش مونت کارلو
20254
با تابع arima نتایج خوبی پیدا کردم، اما اکنون در تفسیر آنها برای استفاده در خارج از R مشکل دارم. من در حال حاضر با شرایط MA مشکل دارم، در اینجا یک مثال کوتاه وجود دارد: ser=c(1, 14, 3, 9) # نمونه سری mod=arima(ser,c(0,0,1)) #از {stats} کتابخانه mod #Series: ser #ARIMA(0,0,1) با میانگین غیر صفر # #ضرایب: # ma1 intercept # -0.9999 7.1000 #s.e. 0.5982 0.8762 # #sigma^2 به‌عنوان 7.676 تخمین زده شد: احتمال گزارش = -10.56 #AIC = 27.11 AICc = Inf BIC = 25.27 mod$resid #سری زمانی: #شروع = 1 #پایان = 41 #فرکانس - = 4.3136670 3.1436951 -1.3280435 0.6708065 predict(mod,n.ahead=5) #$pred #سری زمانی: #شروع = 5 #پایان = 9 #فرکانس = 1 #[1] 6.500081 7.100020 7.100020 7.100027 7.1000027. 7.100027 # #$se #سری زمانی: #شروع = 5 #پایان = 9 #فرکانس = 1 #[1] 3.034798 3.917908 3.917908 3.917908 3.917908 ?Arima[X] فرمول مشخص شده است. a[1]X[t-1] + … + a[p]X[t-p] + e[t] + b[1]e[t-1] + … + b[q]e[t-q]` داده شده انتخاب من از شرایط AR و MA، و با توجه به اینکه من یک ثابت را گنجانده ام، این باید به: «X[t] = e[t] + b[1]e[t-1] + ثابت» کاهش یابد، اما این ثابت نیست. وقتی نتایج R را با دستی مقایسه می کنم بالا می رود محاسبات: `6.500081 != 6.429261 == -0.9999 * 0.6708065 + 7.1000` علاوه بر این، من نمی توانم در بازتولید خطاهای نمونه موفق باشم، با فرض اینکه اولی را می دانم که باید امکان پذیر باشد: 0.31-4.09 * 6.09 +0. != 14 - 3.1436951` `3.1436951 * -0.9999 +7.1000 != 3 + 1.3280435` `-1.3280435 * -0.9999 +7.1000 != 08 - 0.6` من واقعاً می‌توانم این را روشن کنم. بتوانم از نتایج خوبی که به دست آورده ام استفاده کنم.
شرایط MA در آریما
40963
من یک مدل سری زمانی با متغیرهای ثابت دارم. آزمایش برای همبستگی بیرونی آسان نبوده است: \- به دلیل تعداد کمی از مشاهدات من نمی توانم آمار DW را محاسبه کنم. \- تست GB نشان می دهد که همبستگی وجود دارد \- آمار Correlogram Q به من چیز دیگری می گوید که نشان می دهد خود همبستگی وجود ندارد ... چه چیزی می تواند باعث این نتایج متناقض شود؟ چگونه این را مدیریت کنم؟
نتایج متناقض در آزمون های خودهمبستگی
40964
من به داده های کارآزمایی بالینی نگاه می کنم که در آن تعداد بیماران مختلفی در بازوهای مختلف وجود دارد (A، B، C، D). همه بازوها دارویی دریافت می کنند که شناخته شده برای ایجاد سمیت است، اما برخی از بازوها یک داروی اضافی دریافت می کنند که ممکن است به سمیت کمک کند. من از 3 روش برای شناسایی تعداد بیماران مبتلا به سمیت استفاده کرده‌ام و کنجکاو بودم که آیا نسبت بیماران در بازوهای مختلف بین روش‌ها متفاوت است و آیا این نسبت‌ها ممکن است در برخی از بازوها بیشتر بوده باشد (که نشان می‌دهد سمیت اضافی داروی اضافه شده) از آنچه در کل جمعیت دیده می شود. به عنوان مثال، تعداد بیماران شناسایی شده با سمیت با روش های مختلف: A B C D مجموع روش 1: 8 18 26 16 68 روش 2: 45 111 53 113 322 روش 3: 68 158 69 153 448 به طور کلی: 6195 139 139 ، من درصد بیماران در هر بازو را برای هر یک از روش ها محاسبه کرد (روش 1 بازوی A: 8/68) و آن را با کل جمعیت (695/3392) مقایسه کرد. با این حال، پس از انجام این کار، به من گفته شد که باید توسط بیماران در هر بازو عادی شود. من مطمئن نیستم که منظور از این چیست. من می توانم تعداد بیماران شناسایی شده برای هر بازو را بر تعداد کل بیماران روی بازو تقسیم کنم، اما در این صورت چگونه به من کمک می کند تا مقایسه ای را که به آن علاقه دارم انجام دهم؟ من سابقه آماری ندارم، بنابراین مطمئن نیستم که چگونه به طور کلی با این سوال مقابله کنم.
عادی سازی هنگام انجام شمارش آمار تعداد بیماران در بازوهای مختلف یک کارآزمایی بالینی
62082
من یک تابع توزیع احتمال برای انرژی موجود مورد انتظار $\text{P}(t)$ و یک pdf دیگر برای بار مورد انتظار $\text{E}(t)$ دارم. چگونه یک pdf برای مجموعه متغیرهای تصادفی $\text{P}(t)-\text{E}(t)$ پیدا کنم، یعنی انرژی اضافی سیستم؟ آیا این یک مدل استرس-قدرت است؟
یک pdf بار و یک pdf ظرفیت وجود دارد، pdf مازاد (تفاوت) چیست؟
13058
من برخی از داده‌های زیر را دارم که وجود یک رابطه بین موجودیت‌های مختلف «(A,B,C,...)» را در سیستم من در زمان «t» توضیح می‌دهد: در T=1 A B C D. . . A 0 2 1 0 . . . B 2 0 1 3 . . . C 2 1 0 2 . . . D 0 3 2 0 . . . . . . . . . . . در T=2 A B C D A 0 3 1 0 . . . B 3 0 1 3 . . . C 2 1 0 2 . . . D 0 3 2 0 . . . . . . . . . . . در T=3 ... هدف من این است که بفهمم چگونه ماتریس به صورت زمانی تغییر می کند و آن را به روشی معنادار توصیف کنم تا بتوانم نقاط زمانی را که در آن ماتریس دچار تغییر قابل توجهی شده است استخراج کنم (دوباره برخی از متریک های معنی دار) و همچنین منطقه ای در داخل ماتریس که این تغییر در آن رخ داده است. من فقط می دانم که آیا یک روش استاندارد برای انجام این کار وجود دارد؟ پیشنهادی دارید؟ من از Python و NumPy استفاده می کنم.
چگونه می توانم همبستگی های زمانی ماتریس ها را انجام دهم؟
29765
من روی مشکلی کار می کنم که به نظر می رسد: متغیرهای ورودی * طبقه بندی * a * b * c * d * پیوسته * e متغیرهای خروجی * گسسته (اعداد صحیح) * v * x * y * پیوسته * z مسئله اصلی که من هستم مواجهه با این است که متغیرهای خروجی کاملاً مستقل از یکدیگر نیستند و هیچ رابطه ای بین آنها وجود ندارد. یعنی وابستگی وجود دارد اما نه به دلیل علیت (بالا بودن یک مقدار به این معنی نیست که مقدار دیگری نیز زیاد خواهد بود، اما احتمال بالاتر بودن مقدار دیگر بهبود می‌یابد) یک مثال می‌تواند این باشد: v - تعداد نمایش‌های آگهی x - تعداد کلیک‌های تبلیغاتی y - تعداد تبدیل‌ها z - درآمد در حال حاضر، برای اینکه روی آگهی کلیک شود، ابتدا باید در جستجو ظاهر شود، بنابراین کلیک تا حدودی به Impression بستگی دارد. مجدداً، برای اینکه یک تبلیغ تبدیل شود، ابتدا باید روی آن کلیک کرد، بنابراین دوباره تبدیل تا حدودی به کلیک وابسته است. بنابراین اجرای 4 نمونه از مشکل برای پیش بینی هر یک از متغیرهای خروجی برای من منطقی نیست. در واقع باید راهی برای پیش بینی هر 4 با هم وجود داشته باشد و از وابستگی های ضمنی آنها مراقبت کرد. اما همانطور که می بینید، رابطه مستقیمی وجود نخواهد داشت، در واقع احتمالی وجود دارد که درگیر است اما نمی توان به صورت دستی آن را حل کرد. به علاوه متغیرهای خروجی مقوله ای نیستند بلکه در واقع گسسته و پیوسته هستند. هر گونه ورودی در مورد چگونگی حل این مشکل. همچنین من را به پیاده سازی های موجود برای همان و اینکه از کدام جعبه ابزار برای پیاده سازی سریع راه حل استفاده کنم راهنمایی کنید. فقط یک حدس تصادفی - من فکر می کنم این مشکل می تواند توسط شبکه های بیزی مورد هدف قرار گیرد. نظر شما چیست؟
الگوریتم یادگیری ماشین مناسب برای این مشکل چیست؟
29764
**من این مقادیر را از اندازه گیری با تلسکوپ گرفتم: 20.1، 20.2، 19.9، 20، 20.5، 20.5، 20، 19.8، 19.9، 20. می دانم که فاصله واقعی 20 کیلومتر است و خطای اندازه گیری نیست. متاثر از خطای سیستماتیک دقت تلسکوپ چقدر است؟ [پاسخ این است: ${σ}^2$=0.061]** حالا قرار است من ${σ}^2$ را با پایایی 95٪ با استفاده از تخمین بازه محاسبه کنم. بنابراین، ${σ}^2$ باید باشد: $ \frac{n* s^{2} }{ \chi^{2}_{0.975} \big(n-1\big) } ; \frac{n* s^{2} }{ \chi^{2}_{0.025} \big(n-1\big) } $ پس از استفاده از $n = 10$، $k = n-1 = 9$ و $s^{2} = 0.061$ این را دریافت می کنم: $ \frac{10*0.061}{ \chi^{2}_{0.975} \big(9\big)}; \frac{10*0.061}{ \chi^{2}_{0.025} \big(9\big) } $ درست است؟ در صورت حساب باید از n = 10 یا n-1 = 9 استفاده کنم؟ در شمارشگر باید از n-1 = 9 یا n = 10 استفاده کنم؟ وقتی به دنبال مقادیر جدول چندک $\chi^2$ هستم، آیا باید به دنبال $0.95$ و $0.05$ یا 0.975$ و $0.025$ بگردم؟ وقتی آنها می گویند که به قابلیت اطمینان $95\%$ نیاز دارند، فرض می کنم از $1- \frac{ \alpha }{2}$ و $\frac{ \alpha }{2}$ استفاده خواهم کرد. از آنجایی که $\alpha$ من $0.05$ است، فکر می کنم $0.975$ و $0.025$ مقادیر مناسبی هستند. [پاسخ این است: $σ$ = <0.173، 0.433> ]
تخمین فاصله $\sigma^2$ با قابلیت اطمینان $95\%$
29766
من در حال انجام یک کار برای یک کلاس هستم که در آن باید الگوریتم میانگین متحرک ساده را کدنویسی کنم. در کتاب کپی خود، این را نوشته ام: $$\bar{y_{i}}=\frac{y_{i-1}+y_{i}+y_{i+1}}{3}$$ برای $n =3$ مورد MA، که در نزدیکی شروع و پایان مقادیر سری‌های زمانی هموار شده عبارتند از: $$\bar{y_{1}}=\frac{5y_{1}+2y_{2}-y_{3}}{ 6}$$ $$\bar{y_{n}}=\frac{5y_{n}+2y_{n-1}-y_{n-2}}{6}$$ برای $n=5$ MA مورد این است: $ $\bar{y_{i}}=\frac{y_{i-2}+y_{i-1}+y_{i}+y_{i+1}+y_{i+2}}{5}$ $ با مرزهای نزدیک مقادیر: $$\bar{y_{1}}=\frac{3y_{1}+2y_{2}+y_{3}-y_{4}}{5}$$ $$\bar{y_{2 }}=\frac{4y_{1}+3y_{2}+2y_{3}+y_{4}}{10}$$ $$\bar{y_{n}}=\frac{3y_{n}+2y_{n-1}+y_{n-2}-y_{n-3}}{5}$$ $$\bar{ y_{n-1}}=\frac{4y_{n}+3y_{n-1}+2y_{n-2}+y_{n-3}}{10}$$ اما فرمول‌های در حالت کلی مقادیر نزدیک به مرز را دوباره محاسبه کنید؟ متشکرم.
مقادیر نقاط داده نزدیک به شروع و پایان سری های زمانی، زمانی که با میانگین متحرک ساده هموار می شوند
29763
من می خواهم یک مدل مخلوط گاوسی را به برخی از داده ها برازش دهم. داده ها 1 بعدی هستند و من می خواهم همه گاوس ها را محدود کنم تا واریانس یکسانی داشته باشند. من همچنین می‌خواهم یک خوشه نویز پس‌زمینه یکنواخت داشته باشم تا نقاطی را که در یک خوشه واقعی نیستند، انتخاب کنم. من نمی‌دانم چند خوشه باید وجود داشته باشد، و این می‌تواند در یک محدوده بزرگ برای مجموعه داده‌های مختلف متفاوت باشد (ده‌ها تا هزاران ممکن است)، بنابراین در حالت ایده‌آل این باید به طور خودکار انتخاب شود. همچنین ممکن است برای جلوگیری از تطبیق موارد بسیار کوچک با نویز پس‌زمینه، مقداری آستانه پایین‌تر روی ضریب اختلاط برای هر خوشه قرار دهید. بسته به مجموعه داده، از صدها تا هزاران نقطه داده وجود خواهد داشت. راه خوبی برای پیگیری این مشکل چیست؟ من کمی غرق گزینه های ممکن (EM، bayes متغیر، GMM بی نهایت، فرآیندهای dirichlet و غیره) هستم، یا اگر حتی ممکن است.
الگوریتم‌های مخلوط گاوسی 1 بعدی با واریانس مساوی و خوشه نویز
20251
آیا کد دستوری SPSS برای انجام تحقیقات مونت کارلو در دسترس است؟ با تشکر
کد برای انجام مونت کارلو با استفاده از SPSS؟
1173
در حوزه تحقیقاتی من، یک روش محبوب برای نمایش داده ها استفاده از ترکیب نمودار میله ای با میله های دسته است. به عنوان مثال، ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/cZQ89.jpg) میله های دستگیره بسته به نویسنده، بین خطاهای استاندارد و انحرافات استاندارد متناوب می شوند. به طور معمول، اندازه نمونه برای هر نوار نسبتا کوچک است - حدود شش. به نظر می رسد که این طرح ها در علوم زیستی محبوبیت خاصی دارند - برای مثال به چند مقاله اولیه BMC Biology، جلد 3 مراجعه کنید. بنابراین چگونه این داده ها را ارائه می دهید؟ **چرا از این توطئه ها بدم می آید** شخصاً این توطئه ها را دوست ندارم. 1. وقتی حجم نمونه کوچک است، چرا فقط نقاط داده تکی را نمایش ندهید. 2. sd هست یا se که نمایش داده میشه؟ هیچ کس موافق نیست که از کدام استفاده شود. 3. اصلا چرا از میله ها استفاده کنیم. داده ها (معمولا) از 0 نمی روند، اما اولین پاس در نمودار نشان می دهد که این کار انجام می شود. 4. نمودارها ایده ای در مورد محدوده یا اندازه نمونه داده ها نمی دهند. ** اسکریپت R** این کد R است که من برای تولید طرح استفاده کردم. به این ترتیب می توانید (در صورت تمایل) از همان داده ها استفاده کنید. #نام‌های مجموعه داده را تولید کنید.seed(1) = c(A1، A2، A3، B1، B2، B3، C1، C2، C3) prevs = c(38، 37، 31، 31، 29، 26، 40، 32، 39) n=6; se = عددی(طول(قبلی)) برای(i در 1:طول(قبلی)) se[i] = sd(rnorm(n، قبلی، 15))/n #نقشه پایه par(fin=c(6,6 )، pin=c(6،6)، mai=c(0.8،1.0،0.0،0.125)، cex.axis=0.8) barplot(prevs,space=c(0,0,0,3,0,0, 3,0,0), names.arg=NULL, horiz=FALSE, axes=FALSE, ylab=Percent, col=c (2،3،4)، عرض = 5، ylim = محدوده (0،50)) #افزودن در CIs xx = c(2.5، 7.5، 12.5، 32.5، 37.5، 42.5، 62.5، 67.5، 72.5) برای (i در 1:length(prevs)) { lines(rep(xx[i], 2)، c(prevs[i]، prevs[i]+ se[i])) خطوط (c(xx[i]+1/2، xx[i]-1/2), rep(prevs[i]+se[i], 2)) } #محور محور (2, tick=TRUE, xaxp=c(0, 50, 5)) را اضافه کنید (1, at=xx+0.1, labels=names, font=1, tck=0, tcl=0, las=1, padj=0, col=0، cex=0.1)
گرافیک جایگزین برای توطئه های نوار دسته.
1174
من تست های نرمال بودن را می شناسم، اما چگونه می توانم پواسون را آزمایش کنم؟ من نمونه ای از 1000 عدد صحیح غیر منفی دارم که گمان می کنم از توزیع پواسون گرفته شده اند و می خواهم آن را آزمایش کنم.
چگونه می توانم آزمایش کنم که آیا نمونه های داده شده از توزیع پواسون گرفته شده است؟
114221
من نمودار احتمال عادی را در R با استفاده از 'qqnorm' و 'qqline' رسم کردم. من راهنمایی می خواهم در مورد: 1. چگونه می توان احتمال را تخمین زد که یک داده دارای توزیع نرمال است؟ (من در مقاله ای خواندم که احتمال 0.10 لازم است تا فرض کنیم یک داده به طور معمول توزیع شده است). 2. همچنین نحوه محاسبه ضریب همبستگی برای نمودار احتمال نرمال در R چگونه است؟ 3. آیا آزمون نرمال بودن برای رگرسیون غیرخطی نیز معتبر است؟ (این ممکن است یک سوال احمقانه باشد، برای آن ببخشید!) با تشکر!
تخمین احتمال در نمودار احتمال عادی
27617
با استفاده از R یا SAS، می‌خواهم مدل گاوسی زیر را متناسب کنم: $$ \begin{pmatrix} y_{1j1} \\\ y_{1j2} \\\ y_{1j3} \\\ y_{2j1} \\\ y_ {2j2} \\\ y_{2j3} \end{pmatrix} \sim_{\text{i.i.d.}} {\cal N} \left( \begin{pmatrix} \mu_1 \\\ \mu_1 \\\ \mu_1 \\\ \mu_2 \\\ \mu_2 \\\ \mu_2 \end{pmatrix} , \Sigma \right ), j=1، \ldots n $$ با ماتریس کوواریانس دارای ساختار زیر: $$ \Sigma = \begin{pmatrix} \Sigma_0 & M \\\ M & \Sigma_0 \end{pmatrix} $$ با $\Sigma_0$ یک ماتریس کوواریانس تقارن مرکب (قابل تعویض) و $M=\delta \begin{pmatrix} 1 & 1 & 1 \ \\ 1 و 1 و 1 \\\ 1 و 1 و 1 \end{pmatrix}$، $\delta \in \mathbb{R}$. نکته مهم، من به یک ماتریس قابل تعویض کلی $\Sigma_0$، با همبستگی احتمالاً منفی نیاز دارم. ویرایش: با توجه به برخی نظرات (و حتی پاسخی) که در زیر داده شده است، باید یک دقت را اضافه کنم: من با PROC MIXED در SAS و nlme در R مبتدی نیستم و می دانم چگونه مستندات را بررسی کنم. اما با وجود تجربه ای که دارم نمی توانم این مدل را مناسب کنم.
برازش یک مدل گاوسی خاص
40961
من می‌خواهم قابلیت اطمینان درون ارزیاب را در یک مطالعه MRI تخمین بزنم. مناطق مختلف مورد علاقه به صورت دستی با نشانگر ماوس ردیابی شدند تا حجم آنها تخمین زده شود. همه داده ها توسط یک ارزیاب ردیابی شدند و زیر مجموعه ای از داده ها دو بار ردیابی شدند. چگونه می توانم قابلیت اطمینان درونی حجم های مغز را تخمین بزنم؟ به طور خاص، کدام نوع ضریب همبستگی درون طبقاتی را پیشنهاد می کنید؟
قابلیت اطمینان درون ارزیاب
40969
آیا کتاب و مقاله خوبی برای معرفی فرآیند کاوی وجود دارد؟ نتایج تحقیقات پیشرفته برای فرآیند کاوی چیست؟ تفاوت بین فرآیند کاوی و پیش بینی سری های زمانی چیست؟
چند سوال اساسی برای فرآیند کاوی
59036
من رگرسیون های پیش بینی کننده را روی بازده سهام اجرا می کنم و همانطور که انتظار می رود روابط کمتری در خارج از نمونه نسبت به درون نمونه حفظ می شود، با این حال در برخی موارد رابطه قابل توجهی در خارج از نمونه اما نه درون نمونه در سطوح معنی دار معمول پیدا کردم (90 ٪، 95٪ یا 99٪ برای یک سری پیش بینی بالقوه. آیا این امکان پذیر است؟ چگونه می توان این را تفسیر کرد؟ چگونه یک رگرسیون تکراری روی یک مجموعه داده می تواند نتایج بهتری نسبت به استفاده از همه اطلاعات به طور همزمان داشته باشد... برای ارزیابی اهمیت در نمونه، من فقط آمار t ضریب شیب را بررسی می کنم و در خارج از نمونه از میانگین استفاده می کنم. روش مبتنی بر خطای پیش‌بینی مربعی که خطاهای مدل من حاوی پیش‌بینی‌کننده بالقوه را با مدلی که فقط حاوی میانگین بازگشت تاریخی است مقایسه می‌کند.
تفسیر خارج از نمونه در مقابل تفسیر درون نمونه
97938
من از واگرایی KL به عنوان معیار عدم تشابه بین 2 $p.m.f.$ $P$ و $Q$ استفاده می کنم. $$D_{KL}(P||Q) = \sum_{i=1}^N \ln \left( \frac{P_i}{Q_i} \راست) P_i$$ $$=-\sum P(X_i )ln\left(Q(X_i)\right) + \sum P(X_i)ln\left(P(X_i)\right)$$ اگر $$P(X_i)=0$$ سپس به راحتی می توانیم محاسبه کنیم که $$P(X_i)ln\left(Q(X_i)\right)=0$$$$P(X_i)ln\left(P(X_i )\right)=0$$ اما اگر $$P(X_i)\ne0$$ و $$Q(X_i)=0$$ چگونه محاسبه کنیم $$P(X_i)ln\چپ(Q(X_i)\راست)$$
واگرایی Kullback-Leibler را در عمل محاسبه کنید؟
27610
**طراحی مطالعه:** به شرکت کنندگان اطلاعاتی در مورد افزایش سطح دریا نشان دادم، اطلاعات را به روش های مختلف، هم از نظر مقیاس زمانی و هم از نظر بزرگی افزایش بالقوه، متمرکز می کردم. بنابراین من یک طرح 2 (زمان: 2050 یا 2100) در 2 (قدر: متوسط ​​یا زیاد) داشتم. همچنین دو گروه کنترل بودند که هیچ اطلاعاتی دریافت نکردند و فقط به سوالات مربوط به DVهای من پاسخ دادند. **سوالات:** من همیشه نرمال بودن را در سلول ها بررسی کرده ام -- برای بخش 2x2 این طرح، به این معنی است که به دنبال نرمال بودن در 4 گروه می گردم. با این حال، خواندن برخی از بحث‌ها در اینجا باعث شد که روش‌هایم را حدس بزنم. اول، خوانده ام که باید به عادی بودن باقیمانده ها نگاه کنم. **چگونه می توانم نرمال بودن باقیمانده ها (در SPSS یا جاهای دیگر) را بررسی کنم؟** آیا باید این کار را برای هر یک از 4 گروه (6 شامل کنترل ها) انجام دهم؟ من همچنین خواندم که ** نرمال بودن در گروه ها بر نرمال بودن باقیمانده ها دلالت دارد. آیا این درست است؟** (ارجاعات ادبیات؟) باز هم، آیا این به معنای نگاه کردن به هر یک از 4 سلول جداگانه است؟ به طور خلاصه، **چه قدم هایی برای تعیین اینکه آیا داده های (2x2) شما مفروضات عادی بودن را نقض نمی کنند، باید انجام دهید؟** ارجاعات همیشه مورد قدردانی قرار می گیرند، حتی اگر صرفاً برای راهنمایی من در جهت درست باشد.
چگونه نرمال بودن را در ANOVA 2x2 تست کنیم؟
59039
من یک سری تست دارم که همه آنها سختی های متفاوتی دارند و از هر کدام یک نمره متوسط ​​و یک انحراف معیار جمعیت می گیرم. به عنوان مثال: 86.94% 16.27% 84.17% 6.52% 99.55% 1.19% 81.70% 9.61% 99.82% 0.34% در حال حاضر، واضح است که آخرین آزمایش، که میانگین 99.82% دارد و انحراف استاندارد بسیار آسان‌تر از 0.34% است. با میانگین 81.7% و انحراف معیار 9.61% (البته با فرض اینکه تغییرات نتایج ناشی از دشواری باشد و نه جمعیتی که در آزمون شرکت کردند). چیزی که من سعی می کنم بفهمم ضریبی است که فقط از آن داده ها برای به دست آوردن عددی استفاده می کند که به درستی نشان می دهد که یک تست چقدر سخت تر از بقیه بود. امیدوارم بتوانید کمک کنید. btw: متاسفم برای برچسب اشتباه، من مطمئن نیستم که مناسب باشد.
از چه ضریبی می توانم برای محاسبه سختی نسبی یک آزمون در رابطه با آزمون های دیگر فقط با استفاده از میانگین و انحراف معیار جمعیت استفاده کنم؟
23507
من شیفته مفهوم مدل مارکوف حداکثر آنتروپی (MEMM) هستم، و در فکر استفاده از آن برای برچسب بخشی از گفتار (POS) هستم. در حال حاضر، من از یک طبقه‌بندی‌کننده معمولی حداکثر آنتروپی (ME) برای برچسب‌گذاری هر کلمه استفاده می‌کنم. این از تعدادی ویژگی از جمله دو تگ قبلی استفاده می کند. MEMM ها از الگوریتم Viterbi برای یافتن مسیر بهینه از طریق زنجیره مارکوف استفاده می کنند (یعنی یافتن مجموعه بهینه کاملی از برچسب ها برای جمله به جای بهینه های فردی برای هر کلمه). با خواندن در مورد آن، به نظر می رسد که این ظرافت و سادگی فوق العاده ای دارد. با این حال، هر مرحله فقط به نتایج مرحله قبل (یعنی طبق زنجیره مارکوف) متکی است. با این حال، مدل ME من از دو مرحله قبلی (یعنی برچسب های دو کلمه قبلی) استفاده می کند. به نظر می‌رسد که من دو رویکرد ممکن دارم: * مانند یک پیاده‌سازی مرسوم Viterbi، از مجموعه‌ای از مسیرها استفاده کنید که مطابق یک مرحله (قبلی) ذخیره شده‌اند. طبقه‌بندی‌کننده ME من از این مرحله و یک مرحله منجمد قبل از این (تجمیع در مسیر مورد نظر) برای تولید تابع انتقال استفاده می‌کند. * یا الگوریتم را برای پیگیری دو مرحله می نویسم. این پیچیده تر است و دیگر یک مدل مارکوف واقعی نخواهد بود زیرا هر تابع انتقال (یعنی از مدل ME) به دو مرحله قبل بستگی دارد نه یک مرحله. به نظرم می رسد که دومی دقیق تر خواهد بود، اگرچه پیچیده تر خواهد بود. من هنوز در طول جستجوی ادبیاتم نمونه ای از این را پیدا نکرده ام. آیا امتحان شده است؟ آیا رویکرد دو مرحله ای باعث بهبود دقت کلی شد؟
ایجاد یک مدل مارکوف حداکثر آنتروپی از طبقه‌بندی‌کننده حداکثر آنتروپی چند ورودی موجود
92267
برخی از انواع عادی سازی مانند تغییر مقیاس، امتیاز استاندارد یا امتیاز استاندارد اصلاح شده وجود دارد. من می توانم این الگوریتم ها را در مجموعه داده های بزرگ اعمال کنم. اگر مجموعه داده‌ای که من روی آن کار می‌کنم مرتباً به‌روزرسانی شود، مانند درج، به‌روزرسانی یا حذف، برای هر به‌روزرسانی، باید کل مجموعه داده را دوباره پردازش کنم. پردازش کل داده ها فقط برای 1 به روز رسانی پرهزینه است. اجازه دهید واضح تر بگوییم اگر سن کاربر را عادی کنم، بنابراین هر به روز رسانی سن کاربر، حذف کاربر یا درج کاربر می تواند بر پارامترهای عادی سازی مانند حداکثر سن یا حداقل سن و غیره تأثیر بگذارد.
عادی سازی در مجموعه داده هایی که اغلب به روز می شوند
23505
در مورد الگوریتم HTM هاوکینز. آیا کسی روش مفیدی برای تعریف تعداد گره ها در یک لایه و تعداد لایه ها در یک شبکه پیدا کرده است؟
روش خوبی برای طراحی شبکه HTM از نظر عمق و وسعت چیست؟
65886
داشتم این کتاب مربوط به تشخیص الگو و یادگیری ماشین توسط بیشاپ را می خواندم. با این حال، من یک سردرگمی در رابطه با یک مشتق دارم![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/vJCY5.png) در کتاب وقتی حاشیه حاشیه متغیرهای پنهان را محاسبه می کنند، من هستم باشه تا اما در صفحه پیوست، من گیج شدم که منظور آنها از احتمال شرطی $z_{nk} = 1$ است و آنها $\gamma(z_{nk}) = \sum_{z}\gamma(z) z_{nk دارند. }$ در اینجا z به چه معناست؟ فرض کنید مثالی دارم با z=[z1...zN] آیا این به معنای انتظار بیش از همه ترکیب های ممکن از z است، فرض کنید 3 مقدار ممکن برای هر متغیر پنهان دارم. پس یعنی N^3 هست؟ من گیج شدم هر توضیحی؟ همچنین من در مورد بخش حداکثر سازی گیج شده ام در طول بیشینه سازی، آنها $\pi_{k}$ را به صورت $\pi_{k} = \frac{\gamma(z_{1k})}{\sum_{j=1}^{ محاسبه می‌کنند. K} \گاما{z_{(1j)}}}$. آیا مجموع قسمت پایین برابر با 1 نیست؟ بنابراین چیزی را تغییر نمی دهد. پیشنهادات؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/EQ7lm.png)
سردرگمی مربوط به HMM
111331
ادبیات آماری پایه در مورد پیشینه دقیق توزیع نرمال صحبت نمی کند. اساس این فرض در روان سنجی است یا منشأ آن در آمار محض یعنی نظریه نمونه گیری است.
آیا نظریه توزیع نرمال از ادبیات روان سنجی، به ویژه نظریه قابلیت اطمینان سرچشمه می گیرد؟
65889
راه آسان و ساده ای برای دریافت پاسخ های آنلاین از دانش آموزان در کلاس برای استفاده در تظاهرات کلاس چیست. به عنوان مثال قد و وزن. یک روش بررسی سریع در کلاس کامپیوتر می تواند کار آزمایشگاهی را جالب تر کند. هر ایده ای؟ ممنون که خواندید.
چگونه می توان به سرعت داده ها (نظرسنجی) را از دانش آموزان در کلاس جمع آوری کرد؟
8541
من سعی کرده ام منبع قابل توجهی برای استفاده از نمونه برداری گیبس در شبکه های بیزی ترکیبی، یعنی شبکه هایی با متغیرهای پیوسته و گسسته به دست بیاورم. تا اینجای کار نمی توانم بگویم موفق بوده ام. من به شبکه های ترکیبی علاقه مند هستم که در آن هیچ محدودیتی در رابطه با داشتن والدین دائمی فرزندان گسسته وجود ندارد. نمونه گیری گیبس روشی بسیار پرکاربرد در استنتاج تقریبی در روش های بیزی است، و با این حال، به نظر نمی رسد منابع دقیقی پیدا کنم که بر شبکه های ترکیبی تمرکز کنند.
منابع در مورد نمونه برداری گیبس در شبکه های بیزی ترکیبی
65887
آزمون موقت چیست؟ مقابل آزمون موقت چیست؟ چه ارتباطی با آزمون تعقیبی دارد؟ من آن را در آزمون گلدفلد-کواندت یافتم > آزمون پارامتریک گلدفلد-کواندت یک تشخیص ساده و شهودی > برای خطاهای هتروسکداستیکی در یک مدل رگرسیون تک متغیره یا چند متغیره ارائه می دهد. با این حال برخی از معایب تحت مشخصات خاص یا در مقایسه با سایر تشخیص‌ها، یعنی تست بروش-پاگان، به وجود می‌آیند، زیرا آزمون گلدفلد-کواندت تا حدودی **یک تست موقت** است. در درجه اول، آزمون گلدفلد-کواندت مستلزم این است که داده ها در امتداد یک متغیر توضیحی شناخته شده مرتب شوند. آزمون پارامتریک در امتداد این متغیر توضیحی از > کمتر به بالاترین مرتب می شود. اگر ساختار خطا به یک متغیر ناشناخته یا > یک متغیر مشاهده نشده بستگی داشته باشد، آزمون گلدفلد-کواندت راهنمایی کمی ارائه می دهد. > همچنین، واریانس خطا باید تابع یکنواخت متغیر توضیحی > مشخص شده باشد. به عنوان مثال، زمانی که با یک تابع درجه دوم > نگاشت متغیر توضیحی به واریانس خطا مواجه می شویم، آزمون گلدفلد-کواندت > ممکن است به طور نادرست فرضیه صفر خطاهای هموسکداستی را بپذیرد.
آزمون موقت چیست؟
92266
من یک سوال دارم. فرض کنید 1500 نمونه به عنوان مجموعه داده به شما داده شده است، که در آن نمونه به 1 از 3 کلاس طبقه بندی می شود. شما قرار است بهترین مدل را از بهترین الگوریتم یادگیری ارائه دهید. قبل از آن، قرار است یک مدل پیش‌فرض برای مقایسه داشته باشید تا تحلیلی داشته باشید، یعنی اینکه چگونه این بهترین مدل بهتر از مدل پیش‌فرض است. مدل پیش فرض مقایسه در این مورد چه خواهد بود؟ متشکرم. کمک شما بسیار قابل تقدیر است :)
از چه مدلی به عنوان مدل پیش فرض خود برای مقایسه استفاده می کنید؟
92263
این فرمول برای محاسبه ضریب همبستگی بین یک مقدار موضوع واحد ($z$) و دو متغیر مرجع ($x$ و $y$) است. ![](http://i.imgur.com/Zv0ntSS.png) سوال این است که چگونه می توان آن را به مواردی که 3 یا بیشتر متغیر در مجموعه مرجع وجود دارد گسترش داد. به روز رسانی: اضافه کردن توضیحی به دلیل نامشخص بودن نماد... $x$، $y$، $z$ و غیره متغیرهایی (خطوط) هستند. $R$ ضریب همبستگی است، $R$zx ضریب همبستگی بین $z$ و $x$ است (در اینجا در تعریف 2 تعریف شده است). $R$z,xy ضریب همبستگی یک متغیر وابسته $z$ به دو متغیر مستقل است: $x$ و $y$ (تعریف شده در تعریف 1 در اینجا که همچنین گفته شده است که ممکن است به آن نیز گسترش یابد. بیش از دو متغیر مستقل اما توضیح داده نشده است).
فرمول ضریب همبستگی در برابر 3 متغیر یا بیشتر چیست؟
55624
خلاصه: شبیه سازی های من با محاسبه توان من مطابقت ندارد. (این سوال نسبتا طولانی شده است، بنابراین ممکن است تا آخر نخوانید. فکر می‌کنم این یک مشکل اندازه نمونه است.) من برای کمک به طراحی یک مطالعه شبیه‌سازی‌هایی را اجرا می‌کنم، و با چیزی مواجه می‌شوم که مرا گیج می‌کند. دو گروه وجود دارد، درمان شده و درمان نشده، که نتیجه آن سقوط است. ما نرخ تصادف تخمینی 0.1 در گروه درمان نشده داریم و فکر می کنیم می توانیم این میزان را به 0.08 کاهش دهیم. حجم نمونه کوچک (و غیر ممکن) در هر گروه 100 است. بنابراین من power.prop.test() را برای تخمین قدرت اجرا می کنم. power.prop.test(p1=0.1, p2=0.08, n=100) > power.prop.test(p1=0.1, p2=0.08, n=100) مقایسه دو نمونه ای از محاسبه توان نسبت ها n = 100 p1 = 0.1 p2 = 0.08 sig.level = 0.05 توان = 0.07122973 جایگزین = two.sided توجه: n عددی در *هر* گروه است، سپس من یک شبیه سازی را اجرا کردم، زیرا می خواستم بررسی کنم که چند وقت یکبار در مورد بهترین درمان تصمیم اشتباه می گیریم. کتابخانه (دقیق) #یک قاب داده به نام d ایجاد کنید، آن را با اعداد بالا پر کنید. set.seed(12345) nدرمان شده <- 100 nدرمان نشده <- 100 مورد درمان <- 0.1 پروب درمان نشده <- 0.08 روز <- data.frame(id = 1:10000) d$nدرمان <- nدرمان درمان شده <T$n درمان شده <- probTreated d$probUntreated <- probUntreated #تولید برخی نتایج تصادفی با استفاده از rbinom() d$treatedCrashes <- application(cbind(d$nTreated, d$probTreated), 1, function(x) sum(rbinom(x[1] , 1, x[2]))) d$untreatedCrashes <- اعمال (cbind(d$nدرمان نشده، d$prob درمان نشده)، 1، تابع(x) sum(rbinom(x[1], 1، x[2]))) #آزمون دقیق فیشر را روی هر تکرار انجام دهید: d$fisher < - application(cbind(d$nTreated - d$treatedCrashes, d$treatedCrashes, d$nUntreated - d$untreatedCrashes, d$untreatedCrashes, 1, function(x) fisher.test(matrix(x, nrow=2))$p.value) #test power mean(d$fisher < 0.05) و من 4.8% توان دریافت می کنم ، که کمتر از تابع power.prop.test گفته شده است، و کمتر از 0.05 است - که به نظر اشتباه می رسد. > mean(d$fisher < 0.05) [1] 0.0478 آیا این در مورد تقریب نمونه کوچک است؟ آیا این یک خطای کدگذاری احمقانه است؟ (فکر نمی کنم اینطور باشد، اما قبلاً در مورد آن اشتباه کرده ام). آیا چیزی است که من به آن فکر نکرده ام؟ در پاسخ به این پیشنهاد که به این دلیل است که تست دقیق فیشر مشروط به حاشیه است، من مدل را با آزمون بارنارد (در کتابخانه دقیق) دوباره اجرا کردم. (اما من به 1000 تکرار کاهش دادم، زیرا این کار 40 دقیقه طول کشید). d$exact <- application(cbind(d$nTreated - d$treatedCrashes, d$treatedCrashes, d$nUntreated - d$untreatedCrashes, d$untreatedCrashes), 1, function(x) exact.test(matrix(x, nrow= 2)، to.plot=F، cond.row=T)$p.value) d$exact <- lapply(d$exact، تابع(x) x[1][[1]]) mean(d$exact <0.05) > mean(d$exact <0.05) [1] 0.049 تقریباً همان قدرت را دارم . با این حال، من همچنین با استفاده از تابع power.exact.test، یک تست دقیق برای قدرت با استفاده از تابع power.exact.test () نیز در کتابخانه Exact انجام دادم که سطح بسیار مشابهی از قدرت را نشان می دهد: > power.exact.test(p1=0.1, p2=0.08 , n1=100, n2=100,simulation=T, nsim=1000, method=Boschloo) $power [1] 0.045 $alternative [1] two.sided $method [1] Boschloo که باعث می‌شود فکر کنم مشکل اندازه نمونه است.
شبیه سازی آزمایش دقیق فیشر قدرت را دست کم می گیرد
50410
**زمینه** من یک سری مؤلفه های اصلی دارم که روی برخی از داده ها پسرفت می کنم (مشکل جداسازی منبع کور است؛ من فرض می کنم که داده های من ترکیبی خطی از سیگنال هایی است که از طریق PCA به دست آورده ام) و باید تصمیم گیری در مورد تعداد اجزای مدل؛ من این کار را از طریق اعتبارسنجی متقاطع $K$-fold انجام دادم. **مشکل** من مشکل دارم زیرا تعداد اجزای انتخاب شده از طریق CV به انتخاب $K$، تعداد تاهای رویه CV بسیار حساس است. من $n=40$ نقطه داده و حداکثر 8 مؤلفه برای رگرسیون داده ها دارم. در اینجا نمونه‌ای از یک رویه اعتباری متقاطع $10$-fold آمده است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/DTjgX.png) در این حالت، حداقل خطای CV با استفاده از 8 مؤلفه رخ می‌دهد. ، اما مقدار 1-SE دور از این مقدار 3 است، بنابراین ممکن است وسوسه شوم که از 3 جزء در این مورد استفاده کنم. با این حال، در این مورد، چین‌های اعتبارسنجی بسیار کوچک هستند، و این واریانس بالای خطای CV را توضیح می‌دهد. اگر در عوض از CV 5$- برابر استفاده کنم، مقدار 1-SE از حداقل 7 مولفه فاصله دارد. این عدد برای هر مقدار $K$ نوسان می کند و به همین ترتیب تعداد مؤلفه هایی که در آن حداقل جهانی است، نوسان می کند. **رویکرد من** پس از بررسی چندین نمودار CV برای $K$های مختلف، به این نکته اشاره کردم که همیشه حداقل محلی در 4 جزء وجود دارد و به دنبال آن خطای CV- در اجزای $>4$ افزایش می یابد، و به دنبال آن افزایش می یابد. با حداقل جهانی برای اجزای 7-8 دلار. با توجه به اینکه من از مولفه های اصلی استفاده می کنم، به نظر من منطقی به نظر می رسد که از این عدد به عنوان تعداد بهینه اجزا استفاده کنم زیرا این اولین حداقلی است که با شمارش از کمترین تا بیشترین تعداد مؤلفه ها (با توجه به اینکه تعداد اجزا بر حسب مقادیر ویژه مرتب شده اند). با این حال، من متوجه می‌شوم که این استدلال به هیچ وجه «پاک» یا «ظریف» راه‌حل/توضیح برای مشکل موجود نیست. به نظر من شهودی است... آیا توصیه ای در مورد گسترش این راه حل یا پیشنهاد راه حل دیگری دارید؟
انتخاب تعداد اجزای یک مدل خطی از طریق اعتبارسنجی متقاطع
8545
من در استفاده (و یافتن) آزمون چاو برای شکستهای ساختاری در تحلیل رگرسیون با استفاده از R مشکل دارم. یعنی آیا رگرسیون با زیرمنطقه ها بهتر از مدل کلی است. بنابراین من نیاز به اعتبار سنجی آماری دارم. امیدوارم مشکلم روشن باشد، اینطور نیست؟ با احترام مثال marco Toy در R: library(mlbench) # data data (BostonHousing) # آماده سازی داده BostonHousing$region <- ifelse(BostonHousing$medv <= quantile(BostonHousing$medv)[2], 1, ifelse(BostonHousing $medv <= quantile(BostonHousing$medv)[3]، 2, ifelse(BostonHousing$medv > quantile(BostonHousing$medv)[4], 3, 1))) BostonHousing$region <- as.factor(BostonHousing$region) # رگرسیون بدون هیچ گونه زیرمنطقه reg1<- lm(medv ~ crim + indus + rm، data=BostonHousing) خلاصه (reg1) # هستند شکست های ساختاری با استفاده از فاکتور منطقه وجود دارد که # نشان دهنده 3 منطقه فرعی فضایی reg2<- lm(medv ~ crim + indus + rm + region, data = BostonHousing) \-------- ورودی بعدی من با بسته پیشنهادی شما مشکل داشتم strucchange، نمی دانم چگونه از آرگومان های از و به به درستی با فاکتور منطقه استفاده کنم. با این وجود، من یک راهنمایی برای محاسبه آن با دست پیدا کردم (https://stat.ethz.ch/pipermail/r-help/2007-June/133540.html). این منجر به خروجی زیر می شود، اما اکنون مطمئن نیستم که آیا درخواست من معتبر است یا خیر. نتایج حاصل از مثال بالا در زیر. آیا این بدان معناست که منطقه 3 با منطقه 1 تفاوت معنی داری دارد؟ برعکس، منطقه 2 نیست؟ علاوه بر این، هر پارامتر (به عنوان مثال region1:crim) به ترتیب نشان دهنده بتا برای هر رژیم و مدل برای این منطقه است؟ در نهایت، ANOVA بیان می کند که یک نشانه وجود دارد. تفاوت بین این مدل ها و اینکه در نظر گرفتن رژیم ها منجر به مدل بهتری می شود؟ ممنون از راهنمایی های شما! بهترین Marco fm0 <- lm(medv ~ crim + indus + rm, data=BostonHousing) خلاصه (fm0) fm1 <- lm(medv ~ region / (crim + indus + rm), data=bostonHousing) خلاصه (fm1) anova( fm0، fm1) نتایج: فراخوانی: lm(فرمول = medv ~ region/(crim + indus + rm), data = BostonHousing) باقیمانده ها: Min 1Q Median 3Q Max -21.079383 -1.899551 0.005642 1.745593 23.588334 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 12.40774 3.07656 4.033 6.38e-05 *** region2 6.01111 7.25917 0.828 0.408030 region3 -34.6559034 -34.659034. 8.95e-12 *** region1:crim -0.19758 0.02415 -8.182 2.39e-15 *** region2:crim -0.03883 0.11787 -0.329 0.741954 region3:crim 0.7224 0.7245 0.000484 *** region1:indus -0.34420 0.04314 -7.978 1.04e-14 *** region2:indus -0.02127 0.06172 -0.345 0.730520 region3:indus 6.3874640. 0.000275 *** region1:rm 1.85877 0.47409 3.921 0.000101 *** region2:rm 0.20768 1.10873 0.187 0.851491 region3:rm 7.7801801-7.780180 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 4.008 در 494 درجه آزادی چندگانه R-squared: 0.8142، R-squared تنظیم شده: 0.810 آمار: 196.8 در 11 و 494 DF، p-value: < 2.2e-16 > anova(fm0, fm1) تجزیه و تحلیل جدول واریانس مدل 1: medv ~ crim + indus + rm مدل 2: medv ~ منطقه/(crim + indus + rm) Res.Df RSS Df مجموع مربع F Pr(>F) 1 502 18559.4 2 494 7936.6 8 10623 82.65 < 2.2e-16 *** --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1
شناسایی شکست های ساختاری در رگرسیون با آزمون چاو
23502
مهندسی ویژگی اغلب یک جزء مهم برای یادگیری ماشین است (به شدت برای برنده شدن جام KDD در سال 2010 استفاده شد). با این حال، من متوجه شدم که اکثر تکنیک های مهندسی ویژگی یا * هر معنای شهودی ویژگی های اساسی را از بین می برند یا * برای یک دامنه خاص یا حتی انواع خاصی از ویژگی ها بسیار خاص هستند. یک مثال کلاسیک از اولی، تحلیل مؤلفه اصلی است. به نظر من هر دانشی که یک متخصص موضوع در مورد ویژگی ها داشته باشد با تبدیل آن ویژگی ها به اجزای اصلی از بین می رود. آن را با یک تکنیک ساده تبدیل تاریخ به ویژگی‌های «روز ماه» و «روز هفته» مقایسه کنید. معنای اساسی هنوز در ویژگی های جدید حفظ می شود، اما بدیهی است که این تکنیک خاص فقط برای تاریخ ها اعمال می شود و نه ویژگی های دلخواه. آیا بدنه استانداردی از تکنیک های مهندسی ویژگی وجود دارد که معنای ویژگی های اساسی را از بین نبرد و در عین حال برای دامنه های دلخواه (یا حداقل طیف گسترده ای از دامنه ها) نیز قابل اجرا باشد؟
مهندسی ویژگی دامنه-آگنوستیک که معنای معنایی را حفظ می کند؟
27618
متغیر مجموع دو متغیر تصادفی است که به ترتیب از توزیع گاما و یکنواخت تبعیت می کنند. پارامترهای متغیر توزیع یکنواخت تعیین می شوند و دیگری باید از محاسبه زمان واقعی بازیابی شود. من می خواهم مرز متغیر جمع شده را پیدا کنم، مانند استفاده از قانون سه سیگما برای توزیع نرمال. آیا روش خوبی برای تخمین آن وجود دارد؟ برخی از نابرابری‌ها، مانند نابرابری چبیشف، ممکن است بسیار عمومی از یک روش باشد به طوری که دقیقاً مانند قانون سه سیگما عمل نکند.
چگونه می توان مقدار مرزی را برای یک متغیر تصادفی که مجموع متغیرهای دارای توزیع گاما و یکنواخت است محاسبه کرد؟
59035
نرخ خطای نوع 1، میزان خطای نوع 2 و پاور اگر در صورت لزوم برای مقایسه های متعدد تنظیم نشود، چه اتفاقی می افتد؟ در نتیجه استفاده از چیزی مانند تنظیم بونفرونی چه اتفاقی برای اینها می افتد؟
چه زمانی تست‌های پس‌هک نیاز به تنظیم برای مقایسه‌های چندگانه دارند
101073
>> ، بعد از اینکه با نحوه انجام یکی آشنا شدم، می‌توانم این کارها را انجام دهم که در اوراق من رایج است. ما باید از توزیع مجذور کای استفاده کنیم، اما من نمی توانم مقادیر مورد انتظار را پیدا کنم. من نمی دانم زیرا آنها انتظارات را نمی گویند.
چگونه می توانم مقادیر مورد انتظار را برای این نوع سؤال مربع Chi پیدا کنم؟
88394
فرض کنید CDF برای توزیع پارتو را داریم که توسط: $$ P(X \leq x) = 1-\left(\frac{x_m}{x}\right)^\alpha \;\;\;\;\ ;\;\;\;\;\; x \geq x_m$$ راه بصری برای یافتن آلفای که قانون 80/20 برای آن صادق است چیست؟
نحوه استخراج $\alpha$ برای قانون پارتو
52811
نمونه های بی شماری از پیشین های پراکنده وجود دارد که برای اجازه دادن به داده ها برای صحبت کردن استفاده می شوند. با این حال، چه می‌شود اگر تجربه گذشته فرد باعث شود که نسبت به داده‌های جدید شک داشته باشید، بدون اینکه لزوماً قبل از اینکه قسمت عمده چگالی در کجا قرار دارد، پیش‌بینی کنید. آیا راهی برای داشتن یک پیشین منتشر وجود دارد که با این وجود به شدت بر خلفی تأثیر می گذارد؟ **ویرایش برای روشن شدن:** من به موقعیتی فکر می کنم که در آن شما می خواهید مقداری از عقل یک محقق باتجربه را که چیزی در مورد یک حوزه خاص نمی داند اما در مورد مقدار شواهد مورد نیاز قبل از اینکه او یافته ای را می پذیرد چیزی شبیه داستان Ioannidis. بنابراین پراکنده است زیرا دلیلی ندارید که یک ارزش را نسبت به مقدار دیگر باور کنید، اما از این جهت آموزنده است که می خواهید داده ها را کم کنید.
آیا پیشین پراکنده همیشه ضعیف است؟
52818
من در حال انجام کارهایی هستم که شامل ترکیب احتمالات چند رویداد مستقل و غیرمتمایز در یک احتمال کلی برای وقوع هر رویدادی است. ما از معادله ای مانند این استفاده می کنیم: $P(A_1 \cup A_2 \cup \dots \cup A_N) = 1 - \prod_{i=1}^N{(1 - P(A_i))}$ آیا نامی وجود دارد برای این معادله؟ به نظر نمی‌رسد که در نظریه احتمال نمی‌توانم پیدا کنم که از کجا آمده است.
نام این معادله برای ترکیب احتمالات چیست؟
23509
من از مدل های SVM برای پیش بینی کوتاه مدت آلاینده های هوا استفاده می کنم. برای آموزش یک مدل جدید، باید متاپارامترهای مناسب برای یک مدل SVM را پیدا کنم (منظورم C، گاما و غیره است). اسناد Libsvm (و بسیاری از کتاب‌های دیگری که خوانده‌ام) استفاده از جستجوی شبکه‌ای را برای یافتن این پارامترها پیشنهاد می‌کند - بنابراین من اساساً مدل را برای هر ترکیبی از این پارامترها از مجموعه خاصی آموزش می‌دهم و بهترین مدل را انتخاب می‌کنم. آیا راه بهتری برای یافتن فراپارامترهای بهینه (یا نزدیک به بهینه) وجود دارد؟ برای من عمدتاً موضوع زمان محاسبه است - یک جستجوی شبکه ای این مشکل حدود دو ساعت طول می کشد (بعد از اینکه برخی بهینه سازی ها را انجام دادم). مزایای جستجوی شبکه: * می توان آن را به راحتی موازی کرد - اگر 20 CPU دارید 20 برابر سریعتر کار می کند، موازی سازی روش های دیگر سخت تر است * بخش های بزرگی از فضای فراپارامتر را بررسی می کنید، بنابراین اگر راه حل خوبی وجود داشته باشد، آن را پیدا خواهید کرد.
روش سریع برای یافتن بهترین متاپارامترهای SVM (که سریعتر از جستجوی شبکه ای است)
66509
من یک مجموعه داده با دو مجموعه از متغیرها دارم که هر نمونه را تعریف می کنند. من در حال انجام همبستگی های زوجی بین هر متغیر در مجموعه اول با هر متغیر در مجموعه دوم هستم. من اساساً نمونه $n$ دارم. برای هر نمونه، دو مجموعه از متغیرهای $[a_1، ...، a_{m1}]$ و $[b_1، ...، b_{m2}]$ دارم که آن نمونه خاص را تعریف می‌کنند. همبستگی همه متغیرهای $a$ با متغیرهای $b$ یک ماتریس همبستگی نهایی به اندازه $m_1 \times m_2$ به من می دهد. علاوه بر این، ممکن است برخی از متغیرهای مجموعه $a$ با یکدیگر و برخی از متغیرهای مجموعه $b$ نیز با یکدیگر همبستگی داشته باشند، اما من آن همبستگی ها را ارزیابی نمی کنم. من سعی می کنم بفهمم: 1. اگر برای مقایسه های متعدد نیاز به اصلاح دارم، و 2. اگر انجام می دهم، از چه روشی باید استفاده کنم. من Bonferroni را امتحان کرده ام، اما با تعداد زیادی از مقایسه ها، مقدار p تنظیم شده بسیار کوچکی دریافت می کنم.
همبستگی های زوجی -- تصحیح مقایسه چندگانه
97930
ما در حال انجام یک تجزیه و تحلیل طولی بر روی ویژگی های مختلف (متغیرها) یک موضوع واحد تجزیه و تحلیل هستیم. هدف ما انجام هیچ گونه پیش بینی نیست، بلکه تجزیه و تحلیل همبستگی بین این متغیرهای مختلف است. هیچ داده ای وجود ندارد و همه متغیرها تضمین می شوند که در یک زمان معین دارای یک مقدار باشند. سؤال من این است: آیا باید به اندازه‌گیری همبستگی با نادیده گرفتن زمان (زیرا هیچ پیش‌بینی برای مطالعه مورد نیاز نیست)، مدل‌سازی مقادیر دو متغیر در یک نقطه زمانی معین به‌عنوان یک مشاهده (نقطه) صرف در نمودار پراکندگی، پایبند باشم، یا باید این کار را انجام دهم. استفاده از همبستگی متقابل با استفاده از سری زمانی؟ با احترام
ضریب همبستگی در داده های طولی
59038
من لیستی از 25 آلاینده هوا دارم که بسیاری از آنها به شدت با هم مرتبط هستند. من امیدوار بودم که به لیست کوتاهی از بردارهای ویژه که هرکدام از تعداد کمی از آلاینده ها تشکیل می شود، کاهش دهم. من تا الان بیشتر این ویدیوی آموزشی رو دنبال کردم. وقتی چرخش varimax را روی همه رایانه‌های شخصی امتحان کردم (همانطور که به نظر می‌رسد در پایان این ویدیو انجام می‌شود) هر یک از 25 PCa را با امتیاز 1 یا -1 برای تنها یک متغیر دریافت می‌کنم، با هر متغیری که به حساب می‌آید، یعنی. همه رایانه‌های شخصی و متغیرها توسط جفت‌های منحصربه‌فرد به حساب می‌آیند. آیا من کار اشتباهی انجام داده ام یا اگر نه، پس چرا مثال موجود در ویدیو نیز همین کار را نمی کند؟ آیا ممکن است با داده های من که ابعاد بسیار بیشتری دارند، ارتباط داشته باشد؟ بسته به معیارهای انتخاب (معیار کایزر؛ تسطیح کردن طرح صفحه) 7 یا 13 برتر مهم هستند. قرار دادن فقط این 7 یا 13 جزء، خروجی بیشتری را ارائه می دهد که انتظار داشتم. آیا کسی پیشنهادی دارد که کدام یک از این گزینه ها (7 یا 13 جزء) را انتخاب کنم یا این یک تصمیم نسبتاً دلخواه بر اساس میزان فشرده سازی داده ها است؟
چرخش varimax باید روی چند رایانه شخصی اعمال شود؟
111540
من دو مجموعه داده دارم که ساختار آنها به این صورت است: ** مجموعه داده 1: ** ماهانه_سال فروش [1،] ژانویه 2000 30000 [2،] فوریه 2000 12364 [3،] مارس 2000 37485 [4،] آوریل 2000 2000 [5،] ژوئن 2000 7573 . . . . . . ** مجموعه داده 2: ** سود ماه_سال [1،] ژانويه 2000 84737476 [2،] ژانويه 2000 39450334 [3،] ژانويه 2000 48384943 [4،] فوريه 2000 12345678 [5،] فوریه 2000 49595340 [6،] Jan 2001 36769493 . . . . . . همانطور که مشاهده می شود **مجموعه داده اول یک مقدار فروش برای هر ماه از هر سال دارد، در حالی که در مجموعه داده دوم من تعداد مقادیری برای هر ماه از سال ندارم (مثلاً 100 عدد اما همیشه ثابت نیست). .** اکنون می خواهم **یک مدل پیش بینی** ایجاد کنم که می تواند **پیش بینی سود برای ماه های آینده** را ارائه دهد. بهترین رویکرد برای توسعه چنین مدل پیشگویی چیست؟ من آنلاین جستجو کردم و متوجه شدم که می توانیم **یک مدل رگرسیون** یا همبستگی **برازش** را تشکیل دهیم و بر اساس آن بتوانیم پیش بینی انجام دهیم. کدام راه بهتر است - رگرسیون یا همبستگی؟ و **چگونه یک رگرسیون مناسب برای چنین مجموعه های داده ای تشکیل دهیم** که در آن یک مجموعه داده دارای چندین نقطه داده برای هر ماه از هر سال است در حالی که دیگری دارای یک نقطه داده واحد برای هر ماه از هر سال است؟ **توجه:** نمی‌دانم رویکرد درستی است یا نه، اما آیا می‌توانیم مقدار رگرسیون/همبستگی را برای ماه‌های ژانویه، فوریه، مارس... و غیره و سپس بر اساس فروش بدست آوریم. ارزش ما می توانیم پیش بینی سود را به طور کلی انجام دهیم. من در این امر تازه کار هستم و از این رو می توانم مفاهیم خاصی را روشن و واضح نداشته باشم و بنابراین برای این موضوع راهنمایی بخواهم.
چگونه یک مدل پیش بینی در R تشکیل دهیم؟
97934
من یک متغیر پیوسته X دارم که با یک نتیجه پیوسته Y و یک نتیجه دوگانه Z مرتبط است. متوجه شوید که ضریب بین X و Y بسیار بیشتر از ضریب بین X و Z است، آیا می توانم بگویم ارتباط بین X و Y بسیار قوی تر از ارتباط بین X و Z است یا ضرایب غیر قابل مقایسه؟ اگر نه، آیا راه معقولی برای مقایسه ارتباط دو جفت (X و Y و X و Z) وجود دارد؟
مقایسه ضرایب همبستگی نقطه-دوسری و خطی