_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
---|---|---|
58079 | من باید یک مدل Cox توسعه یافته را با یک متغیر کمکی متغیر با زمان در R اجرا کنم: اجازه دهید آن را تعداد دوز ('X') بنامیم. من به نسبت خطر مرتبط با **هر سطح** از X علاقه دارم، یعنی. چگونه یک دوز اضافی بر احتمال بهبودی تأثیر می گذارد. X یک عدد صحیح گسسته و مثبت است. می تواند ثابت بماند یا 1 در طول هر زمان مشاهده افزایش یابد. «وضعیت=1» نشاندهنده بازیابی است و «d1»، «d2»،... «d6» تعداد دوزهای دریافتی هستند (ایجاد شده برای اهداف مدلسازی) من مطمئن نیستم که چگونه دادهها را تنظیم کنم. من بر اساس مطالعه خود به دو گزینه رسیدهام و گزیدهای از تنظیم دادهها و کد هر روش را پیوست میکنم، اما مطمئن نیستم که کدام (اگر یکی) برای پاسخ به این سؤال صحیح است؟ آنها نتایج نسبتاً متفاوتی را ارائه می دهند. داده ها به طور مصنوعی در هر زمان مشاهده تجزیه شده است (توقف): دوزهای توقف شروع بیمار d1 d2 d3 d4 d5 d6 وضعیت 1 0.000000 0.034000 1 1 0 0 0 0 0 0 0 1 0.034000 12.90012.90012 1 12.949399 13.813242 3 1 1 1 0 0 0 0 1 13.813242 30.835070 4 1 1 1 1 0 0 0 2 0.000000 0.241000 0.240000 2.984179 2 1 1 0 0 0 0 0 2 2.984179 4.014723 3 1 1 1 0 0 0 0 2 4.014723 5.186506 4 1020 1 1 1 29.832999 4 1 1 1 0 0 0 2 29.832999 32.063887 5 1 1 1 1 1 0 0 2 32.063887 37.924743 ** 6 1 1 * 1 1 1 1 TH دوزها به عنوان فاکتور** dt<-read.csv('data.csv',header=T) surv<-Surv(شروع، توقف، وضعیت، داده=dt) m<-coxph(surv ~ فاکتور(دوز)، data=dt) روش 2: **هر دوز را به عنوان یک متغیر باینری در نظر بگیرید** dt<-read.csv('data.csv',header=T) surv<-Surv(start,stop,status,data=dt) m<-coxph(surv~d1+d2+d3+d4+d5+d6 , data=dt) آیا هر کدام از روش ها این را در نظر می گیرد که بیمار در دوره قبلی دوزهای ('n-1') داشته است؟ | مدل کاکس توسعه یافته با متغیر کمکی وابسته به زمان پیوسته - چگونه داده ها را ساختار دهیم؟ |
20158 | ممکن است به من کمک کنید تا تصمیم بگیرم حداقل حجم نمونه برای یک نمونه توزیع شده یکنواخت چقدر است. فرض کنید که میانگین نمونه، انحراف معیار و $\alpha$ را پیدا کردهام. | تعیین حجم نمونه برای توزیع یکنواخت |
58078 | با توجه به $R_1=g(X_1,Y_1,Z_1)$ و $R_2=g(X_2,Y_2,Z_2)$Y_1,Y_2$ به طور مشترک iid هستند. $f(R_1|X_1)$ و $f(R_2|X_2)$ و بدانید که $X_1,X_2$ مشترکاً عادی با همبستگی $\rho$ وابسته هستند. $ آیا RVهای وابسته هستند؟ **ویرایش:** برای روشن شدن بر اساس نظرات، من به طور خاص به این مورد نگاه می کنم که در آن $X_i$، $Y_i$ و $Z_i$ همگی مستقل از یکدیگر هستند و تنها وابستگی به آن وجود دارد. بین $X_1$ و $X_2$ | چگونه $f(R_1,R_2)$ را از $f(R_1|X_1)$ محاسبه کنیم و $f(R_2|X_2)$ با توجه به X_1$، X_2$ RVهای وابسته هستند؟ |
46864 | من روی الگوریتمهایی برای فیلتر کردن مشارکتی (CF) کار میکنم. به عنوان بخشی از این کار، من می خواهم یک الگوریتم جدید را با رویکردهای قبلی برای مسئله مقایسه کنم. همچنین در حال بررسی مهم ترین روش ها و انتشارات در نشریات هستم. تاکنون حدود 50 مقاله را مرور کردهام، اما در مشخص کردن مرتبطترین/جالبترین مقالهها مشکل دارم. من میخواهم الگوریتم CF خود را با مجموعهای از الگوریتمهای دیگر CF آزمایش کنم، هم برخی از روشهای ساده پایه و هم برخی از روشهای جدیدتر. الگوریتم خود را با کدام روش مقایسه کنم؟ من قصد دارم تا حد امکان در چند ماه آینده پیادهسازی کنم (یا پیادهسازیها را بیابم)، بنابراین باید بتوان کمی از روشهای مختلف را دور زد. | مرتبطترین الگوریتمها برای فیلتر مشارکتی برای آزمایش |
46794 | اساساً من به ورزش علاقه مندم و به عنوان بخشی از آن یک نسخه مبتنی بر مایکروسافت اکسل از پایان نامه کنت ماسی 1997 (http://masseyratings.com/theory/massey97.pdf) روش رتبه بندی تیم های ورزشی را انجام می دهم، که همچنین امکان یک خانه را فراهم می کند. امتیاز فیلد (HFA) (بنابراین من حل کننده در اکسل روش حداقل مربعاتی را که بر اساس نتایج بازی تنظیم کردهام را حل میکند تا بهترین تناسب را برای میانگین یا رتبهبندی تیمها بدست بیاورم. و یک مزیت میدان خانگی مشترک). به دلیل پستی در یک فروم در جای دیگر، تصمیم گرفتم که سعی کنم شمارهای را در مزیت میدان خانگی (HFA) تیم سیاتل سیهاوکز (NFL) قرار دهم، که ظاهراً بالاتر از میانگین لیگ است. از آنجایی که مدل من معمولاً به همه بازیهای فصل اجازه میدهد تا مشکل حداقل مربعات را حل کنند (برای ایجاد یک رتبهبندی دقیق)، من دادههای ۶ فصل گذشته را گرفتم، رتبهبندی پایان فصل خود را از هر یک از آن فصلها ثابت نگه داشتم (برگرفته از نتایج حاصل از بیش از 250 بازی - 16 بازی برای هر تیم) و اکسل را برای حل مزیت های زمین خانگی فردی بر اساس هر یک از بازی های خانگی تیم ها (8 در هر فصل) دریافت کرد. سپس میانگین HFA های فردی به میانگین لیگ که توسط مدل اصلی من حل شده بود، رسید. بنابراین به طور موثر مشکلم را با مدل تطبیق دادم (فکر می کنم؟). من از دانشگاه صنعتی سوئینبرن توسط مقاله استفان کلارک برای مزایای زمین خانگی در لیگ فوتبال استرالیا استفاده کردم (http://researchbank.swinburne.edu.au/vital/access/manager/Repository/swin:1561?exact= خالق%3A%22Clarke%2C+Stephen+R.%22) به عنوان مبنایی برای مفهوم و به طور خاص این اشاره به هارویل، دی. ا.، و اسمیت، ام. اچ (1994) است. مزیت زمین خانگی: چقدر بزرگ است و آیا از تیمی به تیم دیگر متفاوت است؟ آماردان آمریکایی، 48، 22-28. به طور خلاصه با جمعآوری دادهها در طول 6 فصل (2007/2008 - تا 2012/2013)، من 4 تیم را پیدا کردم که بیش از دو امتیاز با میانگین لیگ تفاوت داشتند (و 28 تیم که در 2 امتیاز بودند که فکر نمیکردم یک امتیاز باشد. تفاوت به اندازه کافی بزرگ است) و به نظر می رسد این تیم ها به طور متوسط در 10 برتر یا 10 پایین ترین مزیت های زمین خانگی قرار دارند. در بالا؛ سیاتل سیهاوکس – میانگین رتبه هفتم HFA – میانگین اختلاف نسبت به میانگین HFA لیگ 2.58: +3.47 امتیاز (به عنوان مثال HFA سیاتل = 6.05) بالتیمور ریونز – میانگین رتبه HFA نهم – میانگین اختلاف نسبت به میانگین HFA لیگ: +2.64 امتیاز و در پایین. Carolina Panthers – میانگین HFA 23 – میانگین اختلاف نسبت به میانگین HFA لیگ: -2.11 امتیاز Miami Dolphins – میانگین HFA 24th – میانگین اختلاف میانگین لیگ برتر HFA: -2.61 امتیاز (بنابراین به طور متوسط HFA اندکی منفی است و تنها تیمی است که این موضوع روی آن تأثیر می گذارد) . سوال من این است؛ آیا راهی برای آزمایش اهمیت 3.47 امتیاز بالاتر از مقدار میانگین لیگ HFA انفرادی سیاتل سیهاوکز وجود دارد؟ قابل توجه است؟ آیا مجموعه داده بازی ها به اندازه کافی بزرگ است (6 فصل – 48 بازی در هر تیم)؟ آیا من حق دارم هر چیزی که کمتر از 2 امتیاز کمتر از میانگین است را نادیده بگیرم، زیرا به اندازه کافی قابل توجه نیست (که ممکن است فقط به دلیل یک فصل کوتاه باشد)؟ من همچنین به دنبال علت HFA نیستم (که انتظار دارم ترکیبی از آشنایی باشد زیرا ورزشگاه تنها ده سال باز است و سفر می کنم زیرا سیاتل منزوی ترین تیم NFL است). من فقط می خواهم ثابت کنم که مهم است (و سپس می توانم به دنبال علل باشم). من پیشینه ریاضی خوبی ندارم (فقط به ورزش علاقه دارم) بنابراین برای هر توصیه ای سپاسگزار خواهم بود زیرا فکر می کنم 3 امتیاز بالاتر از میانگین لیگ باید یک مزیت قابل توجه باشد. با تشکر | تلاش برای آزمایش اهمیت مزیت میدان خانگی Seattle Seahawks |
46867 | با این یکی مشکل کمی دارید: فرض کنید $X_1، X_2، \ldots $ متغیرهای تصادفی معمولی استاندارد iid هستند. اجازه دهید $W_n = \sqrt{n} \frac{X_1 + \cdots + X_n}{X_1^2 + \cdots + X_n^2}$. توزیع محدود $W_n$ را به صورت $n \به \infty$ پیدا کنید. خیلی بد است که همگرایی در توزیع تحت تقسیم بسته نشده است. نمی توانم slutsky را برای درخواست دریافت کنم. | توزیع محدود کننده $W_n$ را پیدا کنید |
112958 | من می دانم که Lasso در نهایت برخی از پارامترها را صفر می کند و مانند انتخاب متغیر عمل می کند. من همچنین از مقاله خواندم که صحبت در مورد روش انتخاب متغیر خودکار مانند Stepwise AIC می تواند دردسرساز باشد. بنابراین مزایای استفاده از کمند برای انتخاب متغیر نسبت به استفاده از رویه های خودکار مانند Stepwise AIC چیست؟ | چرا رگرسیون کمند برای داده های با ابعاد بالا بهتر از Stepwise AIC است؟ |
69173 | من برخی از پست های قبلی را در مورد این موضوع خوانده ام و هنوز متوجه نشده ام که چگونه caret در مورد تعداد درختان هنگام استفاده از model=cforest از بسته پارتی تصمیم می گیرد. من می دانم که در آستانه خاصی از ساختن درختان بیشتر استفاده نمی شود، اما این عدد بهینه چگونه محاسبه می شود؟ آیا پیش فرض است؟ | تعداد درختانی که از جنگل در حفره استفاده می کنند |
44794 | مشکل تکلیف من به شرح زیر است: من با یک رشته 0 به طول $n$ شروع می کنم. سپس، با احتمال $p$، هر بیت را به طور یکسان و مستقل به 1 تغییر می دهم. پس از آن، تعداد 1 ها را در رشته می شمارم (که به طور متوسط $np$ خواهد بود). عدد 1 را $P_1$ بگذارید. این روند را 100 بار ادامه دهید، اعداد صحیح $P_1، P_2،\ldots، P_{100}$ را دریافت کنید. من میخواهم حداکثر را در مجموعه $\\{P_1, P_2, .., P_{100}\\}$ تخمین بزنم. | مشکل در توزیع عادی |
20157 | من سعی می کنم از تابع 'gbm.fit()' برای یک مدل درختی رگرسیون تقویت شده که در بسته R gbm پیاده سازی شده است استفاده کنم. برای بررسی به عنوان مثال، خطای پیشبینی بوت استرپ و تمام قابلیتهای دیگر، میخواهم از «errorest()» از بسته ipred استفاده کنم. من فکر می کنم «errorest()» خروجی «gbm» را نمی پذیرد. آیا راه حلی وجود دارد؟ با عرض پوزش، برای مثال گم شده. لطفاً، دادههای کتابخانه (ipred) کتابخانه (gbm) (BostonHousing) را در زیر ببینید <- gbm(medv ~ ., توزیع = gaussian, data=BostonHousing) من مطمئن نیستم که چگونه از نتیجه در `errorest()` استفاده کنم . آیا کسی می تواند به من کمک کند؟ با تشکر | به دست آوردن برآوردهای مبتنی بر نمونهگیری مجدد از خطای پیشبینی در مدل درختی رگرسیون تقویتشده |
13051 | من در حال حاضر در حال نوشتن برنامه ای برای یادگیری طبقه بندی کننده TAN (شبکه بیزی تقویت شده درختی) از داده ها هستم و تقریباً آن را تمام کرده ام. من از الگوریتم توضیح داده شده در مقاله فریدمن با عنوان «طبقهبندیکنندههای شبکه بیزی» استفاده میکنم و برای متغیرهای پیوسته، توزیع گاوسی را فرض میکنم. من برنامه خود را روی برخی از مجموعه داده های UCI repo آزمایش کرده ام و اساساً خوب کار می کند. با این حال وظیفه اصلی من نیاز به آموزش تدریجی دارد (و داده ها همگی پیوسته هستند). مشکل این است که در ابتدا اندازه مجموعه داده کوچک است و ممکن است متغیری وجود داشته باشد که مقادیر آن در کل مجموعه داده یکسان باشد که منجر به واریانس 0 می شود. الگوریتمی که من استفاده می کنم نیاز به محاسبه اطلاعات متقابل شرطی هر ویژگی دارد. متغیرها متغیر کلاس C را می دهند، در زیر معادله ای است که من برای متغیرهای پیوسته استفاده می کنم، $$I(X_i; X_j|C) = -\frac{1}{2} \sum_{c=1}^{r} P(c) \log(1-\rho_c^2(X_i,X_j)),$$$\rho_c(X_i,X_j)=\frac{\sigma_{ij |c}}{\sqrt{\sigma_{i|c}^2\sigma_{j|c}^2}}$$ همانطور که می بینید، اگر واریانس یک متغیر 0 است، با خطای تقسیم صفر مواجه خواهم شد. برای اینکه برنامه من خراب نشود، در چنین مواردی واریانس متغیر را روی 1 صدم انتظار آن یا 0.01 اگر انتظار 0 باشد (به این معنی که همه مقادیر 0 هستند) تنظیم می کنم. با این حال، هنگامی که دو متغیر وجود دارد و مقادیر آنها همه یکسان است (در موردی که من با همه 0 مواجه شدم)، برنامه همچنان از کار می افتد زیرا در آن صورت محاسبه log 0 خواهد بود. چگونه می توانم با چنین شرایطی برخورد کنم؟ همانطور که در یک حالت کاملاً متغییر گسسته، من از دیریکله قبل از تقسیم بر صفر استفاده می کنم، شاید بتوانم به طور مشابه از نوعی قبل برای متغیرهای پیوسته استفاده کنم؟ روش های رایج برای مقابله با مجموعه داده های کوچک چیست؟ من از نظر آمار ضعیف هستم، امیدوارم سوالم خیلی آزاردهنده نباشد. | مشکل در یادگیری پارامتری زمانی که مجموعه داده ها کوچک هستند |
13059 | من مجموعه ای از دنباله اعداد دارم، هر دنباله مستقل از یکدیگر است. من می خواهم بدانم که آیا به طور کلی این دنباله ها افزایش می یابد، کاهش می یابد یا ثابت می ماند. کاری که من تاکنون انجام دادهام، یک مدل خطی برازش برای هر دنباله است، به طوری که میتوانم از گرادیان برای تعیین اینکه آیا دنباله در حال افزایش است یا خیر استفاده کنم. سپس من از تست Wilcoxson U استفاده می کنم تا بررسی کنم که آیا شیب های مثبت به اندازه شیب های منفی بزرگ هستند (البته در مقدار مطلق). آیا این راه حل خوبی برای مشکلات من است؟ تهدیدات این راه حل چیست؟ چه چیزی بهتر از این خواهد بود؟ | ارزیابی افزایش یا کاهش مجموعه توالی ها |
94542 | من سعی کرده ام یک رگرسیون خطی ساده از x3 = هفته های ادعا شده در برابر x4 = هفته های جبران شده انجام دهم. من مشکل دارم زیرا خطای استاندارد باقیمانده من بسیار زیاد است و همچنین باقیمانده های من هموسداستیک نیستند. اگر کسی بتواند راهنمایی هایی در مورد چگونگی رفع این مشکلات ارائه دهد، واقعاً ممنون می شوم. اینم خروجی R.    ممنون!! | مشکل در برازش رگرسیون خطی ساده |
94541 | من در حال انجام تحقیقاتی در مورد برخی از صنایع هستم و سعی می کنم برخی از آمار درآمد را پیش بینی کنم. من می دانم که ارزش این صنعت 220 میلیون دلار است و 360 تجارت وجود دارد. من فرض میکنم که توزیع درآمد کسبوکار مشابه توزیع درآمد در آمریکا خواهد بود: http://www.theglitteringeye.com/images/us-income-distribution.gif آیا میتوانید به من کمک کنید تا عملکردی ارائه کنم که به شما کمک کند. من برای شبیه سازی چنین توزیعی بر اساس میزان کسب و کار و ارزش صنعت؟ با تشکر Btw، من تحصیلات آماری ندارم، پس ببخشید اگر سوال گنگ است. | چگونه می توان یک شبیه سازی برای توزیع درآمد در برخی از صنایع ایجاد کرد؟ |
99601 | با عرض پوزش صمیمانه برای سؤالی که ممکن است احمقانه باشد، من در تشخیص الگو تازه کار هستم و تمام کتاب های درسی را که برای یک مبتدی قابل دسترسی است، خسته کرده ام. من این پست را بطور قابل ملاحظه ای بازنویسی کرده ام تا به توضیح بهتر خودم کمک کنم. مشکل: فرض کنید میخواهم یک برنامه طبقهبندی بسازم که برای تشخیص اینکه آیا بیمار بر اساس ضربان قلب و فشار خون احتمال دارد یا نه، احتمالاً به یک اختلال قلبی ژنتیکی مبتلا است یا خیر، طراحی شده است. در حالی که سن بر خطر ابتلا به این بیماری تأثیر نمی گذارد، اما تعیین کننده بزرگی برای HR و BP است. راهحل جزئی: میدانم که میتوانم یک مجموعه داده [AGE HR BP] از بسیاری از افراد سالم و بیمار بسازم و از میانگینها و ماتریسهای کوواریانس هر مجموعه داده برای انجام یک طبقهبندی مبتنی بر ماهالانوبیس استفاده کنم. در این مورد من میتوانم از فاصله ماهالانوبیس دادههای بیمار تا میانگین کلاس گروههای سالم و ناسالم استفاده کنم. با این حال، همانطور که میدانم، سن بیماران تا حدی تعیینکننده سالم بودن یا نبودن آنهاست، چیزی که ما میخواهیم از آن اجتناب کنیم. سوال: آیا راهی وجود دارد که بتوان از سن بیمار برای محاسبه واریانس های HR و BP با گنجاندن آن در ماتریس های کوواریانس استفاده کرد، بدون اینکه بخشی از فرآیند تصمیم گیری باشد؟ برای جلوگیری از طبقه بندی های نادرست مانند - [بیمار بالای 50 سال است، اکثر بیماران در گروه ناسالم بالای 50 سال هستند (به طور تصادفی) بنابراین بیمار ناسالم است]. | کم کردن فاصله ماهالانوبیس در یک جهت از کل |
46798 | من به دنبال یک الگوریتم خوشه بندی هستم. مجموعه داده ایده آل من به این صورت است:  نتیجه خوشه بندی باید شبیه Rapidminer باشد. نمودار چگالی:  به این معنی است که 3 یا 4 خوشه باید نتیجه خوشه بندی باشند: یک خوشه (1 |1) تا (5|6)، یک یا دو برای نقاط Z = 5 و یکی برای ناحیه همپوشانی (6|1) تا (11|6). بر اساس «تراکم»، من به بسته R «DBSCAN» ضربه زدم. بهترین نتیجه ای که می توانستم به دست بیاورم نتیجه ای بود که در تصویر بالا وجود داشت. بنابراین دقیقاً آن چیزی نیست که من انتظار داشتم، زیرا منطقه همپوشانی به عنوان یک خوشه جداگانه شناخته نشد. آیا ایده ای دارید که کدام الگوریتم نتایج مورد انتظار من را ارائه دهد؟  | خوشه بندی چگالی |
69172 | من در حال انجام تجزیه و تحلیل ساختارهای نهفته هستم. می خواستم بدانم که آیا استفاده از متغیرهای ترکیبی با توجه به اینکه معیارهای مرتبط با هر یک از سازه های پنهان تا 80 مورد استفاده می کند، قابل قبول است؟ | متغیرهای ترکیبی در SEM |
13053 | من سعی می کنم یک خط + منحنی نمایی را برای برخی از داده ها جا بدهم. برای شروع، من سعی کردم این کار را بر روی برخی از داده های مصنوعی انجام دهم. تابع این است: $$y=a+b\cdot r^{(x-m)}+c\cdot x$$ در واقع یک منحنی نمایی با یک بخش خطی و همچنین یک پارامتر تغییر افقی اضافی (_m_) است. با این حال، زمانی که من از تابع «nls()» R استفاده میکنم، حتی اگر از همان پارامترهایی استفاده کنم که در وهله اول برای تولید دادهها استفاده میکردم، خطای ترسناک «ماتریس گرادیان منفرد در تخمینهای پارامتر اولیه» را دریافت میکنم. من الگوریتمهای مختلف، مقادیر شروع متفاوت را امتحان کردهام و سعی کردهام از «بهینه» برای به حداقل رساندن مجموع باقیمانده مربعها استفاده کنم، همه اینها فایدهای نداشت. خواندهام که دلیل احتمالی این امر میتواند پارامترسازی بیش از حد فرمول باشد، اما فکر نمیکنم اینطور باشد (آیا؟) آیا کسی پیشنهادی برای این مشکل دارد؟ یا این فقط یک مدل نامناسب است؟ یک مثال کوتاه: #پارامترهای مورد استفاده برای تولید داده reala=-3 realb=5 realc=0.5 realr=0.7 realm=1 x=1:11 #مقدار x - من 11 داده نقطه زمانی دارم #خطی+تابع نمایی y=reala + realb*realr^(x-realm) + realc*x #کمی نویز اضافه کنید تا از دادههای باقیمانده صفر جلوگیری کنید jitter_y = jitter(y,amount=0.2) testdat=data.frame(x,jitter_y) #رگرسیون را با مقادیر شروع مشابه با پارامترهای واقعی امتحان کنید linexp=nls(jitter_y~a+b*r^(x-m)+c*x ، داده=testdat، start=list(a=-3، b=5، c=0.5، r=0.7، m=1)، trace=T) با تشکر | خطای گرادیان منفرد در nls با مقادیر شروع صحیح |
44797 | من نمی دانم چگونه داده های تلفیقی را وارد کنم (من داده های مربوط به 42 کشور در طول 7 سال در هر متغیر را دارم) در SPSS و سپس یک رگرسیون اجرا کنم. تا کنون، SPSS مشاهدات را به کشور و سال خاصی اختصاص نمی دهد و هر متغیر را مستقل در نظر می گیرد. ** چگونه می توانم به SPSS بگویم که من 42 مشاهده (یک مورد برای هر کشور) به مدت 7 سال در هر متغیر دارم و نه 294 (7*42) مشاهده؟** من به متغیرهای تعامل نگاه می کنم و فکر می کنم این ممکن است کلید اصلی باشد. . آیا به یک اصطلاح تعامل (کشور*سال*متغیر) نیاز دارم؟ هنگامی که من موفق به وارد کردن صحیح آن شدم، 4 متغیر مستقل یک متغیر پنهان را تشکیل می دهند که قرار است روی یک متغیر وابسته تأثیر بگذارد. من برای این منظور از SPSS Amos استفاده خواهم کرد. | وارد کردن پانل داده (داده های سری زمانی مقطعی) در SPSS |
9259 | من یک رگرسیون مبتنی بر GAM را با استفاده از بسته R gamlss اجرا میکنم و با فرض توزیع بتای صفر دادهها. من فقط یک متغیر توضیحی در مدل خود دارم، بنابراین اساساً این است: «mymodel = gamlss(response ~ input, family=BEZI)». الگوریتم ضریب $k$ را برای تأثیر متغیر توضیحی بر میانگین ($\mu$) و p-value مربوط به $k(\text{input})=0$ به من می دهد، چیزی شبیه به: Mu link تابع: logit Mu Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -2.58051 0.03766 -68.521 0.000e+00 ورودی -0.09134 0.01683 -5.428 6.118e-08 همانطور که در مثال بالا میبینید، فرضیه $k(\ext) input})=0$ با رد شد اعتماد به نفس بالا سپس مدل تهی را اجرا می کنم: «null = gamlss(پاسخ ~ 1، خانواده=BEZI)» و احتمالات را با استفاده از آزمون نسبت درستنمایی مقایسه می کنم: p=1-pchisq(-2*(logLik(null)[1]- logLik(mymodel)[1])، df(mymodel)-df(null)). در تعدادی از موارد، من $p> 0.05$ دریافت می کنم، حتی زمانی که ضرایب در ورودی بسیار معنی دار گزارش شده است (مانند بالا). من این را کاملاً غیرعادی میدانم - حداقل در تجربه من با رگرسیون خطی یا لجستیک این اتفاق نیفتاده است (در واقع، زمانی که من از گامای تنظیمشده صفر با gamlss استفاده میکردم، این اتفاق هرگز رخ نداده است). سوال من این است: آیا هنوز هم می توانم به وابستگی بین پاسخ و ورودی اعتماد کنم در حالی که این مورد وجود دارد؟ با تشکر فراوان | اهمیت ضرایب رگرسیون (GAM) زمانی که احتمال مدل به طور قابل توجهی بالاتر از صفر نیست |
13054 | فرض کنید یک مجموعه داده $Y_{1}، ...، Y_{n}$ از یک توزیع پیوسته با چگالی $p(y)$ دارید که در $[0,1]$ پشتیبانی میشود که مشخص نیست، اما $n $ بسیار بزرگ است، بنابراین تخمین چگالی هسته (به عنوان مثال) $\hat{p}(y)$ بسیار دقیق است. برای یک برنامه خاص، باید دادههای مشاهده شده را به تعداد محدودی از دستهها تبدیل کنم تا مجموعه داده جدیدی $Z_{1}، ...، Z_{n}$ با تابع جرم ضمنی $g(z)$ به دست آید. یک مثال ساده می تواند $Z_{i} = 0$ زمانی که $Y_{i} \leq 1/2$ و $Z_{i} = 1$ زمانی که $Y_{i} > 1/2$ باشد. در این مورد تابع جرم القایی $$ \hat{g}(0) = \int_{0}^{1/2} \hat{p}(y) dy, \ \ \ \hat{g}( 1) = \int_{1/2}^{1} \hat{p}(y)dy$$ دو پارامتر تنظیم در اینجا تعداد گروهها، $m$، و $(m-1) هستند. بردار طول آستانه ها $ $\lambda$. تابع جرم القایی را با $\hat{g}_{m,\lambda}(y)$ نشان دهید. من رویهای را میخواهم که پاسخ دهد، برای مثال، بهترین انتخاب $m، \lambda$ چیست به طوری که افزایش تعداد گروهها به $m+1$ (و انتخاب بهینه $\lambda$ در آنجا) بهبود ناچیزی حاصل شود؟ من احساس می کنم شاید بتوان یک آمار آزمایشی ایجاد کرد (شاید با تفاوت در واگرایی KL یا چیزی مشابه) که توزیع آن قابل استخراج باشد. ایده یا ادبیات مرتبطی دارید؟ **ویرایش:** من اندازهگیریهای زمانی یک متغیر پیوسته را با فواصل مساوی دارم و از یک زنجیره مارکوف ناهمگن برای مدلسازی وابستگی زمانی استفاده میکنم. صادقانه بگویم، زنجیره های مارکوف حالت گسسته بسیار ساده تر هستند و این انگیزه من است. داده های مشاهده شده درصد هستند. من در حال حاضر از یک گسسته سازی موقت استفاده می کنم که برای من بسیار خوب به نظر می رسد، اما فکر می کنم این یک مشکل جالب است که در آن یک راه حل رسمی (و عمومی) امکان پذیر است. **ویرایش 2:** در واقع به حداقل رساندن واگرایی KL معادل عدم گسسته سازی داده ها است، بنابراین این ایده کاملاً منتفی است. من بدنه را بر این اساس ویرایش کردم. | تعیین گسسته سازی بهینه داده ها از یک توزیع پیوسته |
94543 | رگرسیون لجستیک می تواند به پیش بینی یک مقدار کمک کند که آیا اتفاق می افتد یا خیر. من می خواهم بدانم چگونه می توانم این کار را با استفاده از sklearn انجام دهم. من می خواهم بدانم که آیا این رویداد رخ می دهد یا خیر. من مجموعه داده عظیمی دارم (20 هزار خط و 20 ستون). داده های من 19 ستون به عنوان پیش بینی و آخرین ستون به عنوان هدف (مقادیر بین 0-10) دارد. برای ساده کردن کار، از داده های تصادفی استفاده می کنم تا بفهمم چگونه می توانم داده ها را تفسیر کنم. A,B,C: پیشبینیکننده هدف: بهعنوان هدف از sklearn import linear_model pandas import بهعنوان مجموعه داده pd = pd.DataFrame({'A':np.random.rand(100)*1000، 'B':np.random. rand(100)*100، 'C':np.random.rand(100)*10، 'target':np.random.rand(100)}) predictors= dataset.ix[:,['A','B','C']].values target = database.ix[:,['target' ]].values lr = linear_model.LogisticRegression() lr.fit(پیش بینی کننده ها، هدف) linear_model.LogisticRegression(C=1.0، class_weight=هیچکدام، دوگانه=نادرست، fit_intercept=درست، intercept_scaling=1، penalty='l2'، random_state=هیچکدام، tol=0.0001) حالا، آیا باید رسم کنم (lr.predict_proba) تا احتمال هر عنصر را بدست بیاورم؟ برای اینکه احتمال هر خط را داشته باشم چه کاری باید انجام دهم. | چگونه از رگرسیون لجستیک (scikit-learn) برای پیش بینی مقادیر استفاده کنیم؟ |
9253 | برای $\nu$-SVM (برای هر دو حالت طبقه بندی و رگرسیون) $\nu \in (0;1)$ باید انتخاب شود. راهنمای LIBSVM پیشنهاد میکند از جستجوی شبکهای برای شناسایی مقدار بهینه پارامتر $C$ برای $C$-SVM استفاده کنید، همچنین توصیه میکند که مقادیر زیر را امتحان کنید $C = 2^{-5}، 2^{-3}، \dots، 2^{15}$. بنابراین سوال این است که آیا توصیههایی برای مقادیر پارامتر $\nu$ در مورد $\nu$-SVM وجود دارد؟ | انتخاب پارامتر $\nu$-svm |
44790 | من سعی می کنم از یک glm با توزیع دوجمله ای (لینک لاجیت) برای تجزیه و تحلیل داده های منحنی پاسخ دوز برای اثرات کشنده سویه های مختلف باکتری استفاده کنم. اکنون میخواهم دوز کشنده 50 (LD50) را برآورد کنم. مدل من به سادگی این شکل است: بقا ~ a + b*dose بنابراین از آنجایی که من یک پیوند لاجیت دارم، به دست آوردن تخمین برای LD50 (یعنی p=0.5) به سادگی به معنی تقسیم -a/b است. با این حال، من همچنین میخواهم فواصل اطمینان این تخمینها را بدانم و اینجاست که مطمئن نیستم چه کار کنم. اگر کسی پیشنهادی برای این موضوع داشته باشد، عالی است. | پیش بینی معکوس از glm دو جمله ای - چگونه فواصل اطمینان را بدست آوریم؟ |
69175 | یک شرکت دارویی در آستانه شروع آزمایشات بالینی دو داروی جدید است که برای کمک به افراد برای ترک سیگار تولید کرده است. بر اساس تجربیات و نتایج آزمایشگاهی فعلی، شرکت داروسازی معتقد است که احتمال پذیرش هر دو دارو 70 درصد و تنها یک مورد به احتمال 20 درصد است. اگر هر دو مورد پذیرش قرار گیرند، شرکت دارو 10 میلیون دلار درآمد خواهد داشت. اگر یکی پذیرفته شود، شرکت دارویی 4 میلیون دلار سود خواهد داشت، در حالی که اگر هر دو رد شوند، 2 میلیون دلار ضرر خواهند کرد. سود مورد انتظار شرکت دارو چقدر است؟ آیا این: - 7.2 میلیون دلار؟ 7.6 میلیون دلار؟ 10.0 میلیون دلار؟ هیچ کدام از موارد بالا نیست؟ | محاسبه سود مورد انتظار از احتمالات |
44793 | من یک الگوریتم خوشهبندی دارم که به صورت تکراری مانند K-means کار میکند، اما محدودیتهایی در اندازههای خوشه با آستانههای پایینتر و بالا وجود دارد. آیا به طور کلی اثبات همگرایی K-means را می شناسید؟ آیا آنها در مورد این الگوریتم جایگزین قابل اجرا هستند؟ | همگرایی K-means |
103540 | من یک مشکل داده بزرگ با تعداد زیادی پیش بینی کننده و یک پاسخ غیر منفی (زمان تا بازرسی) دارم. برای یک مدل کامل، من از یک glm با پاسخ توزیع شده گاما (link=log) استفاده می کنم. با این حال من می خواهم یک مدل کوچک پیدا کنم. رویکرد بهترین زیر مجموعه glm برای من کار نمی کند زیرا حافظه من تمام می شود - به نظر می رسد که برای تنظیمات من به اندازه کافی کارآمد نیست (داده های بزرگ، رایانه ضعیف). بنابراین من به رویکرد LASSO (با استفاده از بستههای R «lars» یا «glmnet» تغییر کردم. «glmnet» حتی برخی از خانوادههای توزیع را به جز گاوسی ارائه میکند، اما خانواده گاما را نه. چگونه می توانم یک تنظیم کمند برای glm با پاسخ توزیع شده گاما در R انجام دهم؟ آیا می تواند یک مدل Cox (Cox net) برای مدل سازی نوعی زمان انتظار باشد؟ ویرایش: از آنجایی که دادههای من شامل تمام نقاط داده با اطلاعات مربوط به زمان پس از آخرین بازرسی است، استفاده از یک مدل COX واقعاً مناسب به نظر میرسد. قرار دادن دادهها در قالب مناسب (همانطور که «Surv» انجام میدهد) و فراخوانی «glmnet» با «family=cox» میتواند در مورد «زمانهای انتظار» یا تجزیه و تحلیل بقا کار من را انجام دهد. در داده های من، تمام نقاط داده مرده هستند و مدل کاکس اجازه می دهد تا تجزیه و تحلیل شود که کدام یک زودتر مرگ شدند. به نظر می رسد که در این مورد نیازی به family=gamma نیست. نظرات بسیار استقبال می شود. | مدل خطی تعمیم یافته با تنظیم کمند برای پاسخ غیر منفی مداوم |
45441 | با توجه به $X_1$، $X_2$ متغیرهای تصادفی مستقل EXP(1) هستند، چگونه انتظارات زیر را محاسبه کنم: * $E[X_1 | X_1 + X_2]$ * $P(X_1 > 3 | X_1 + X_2)$ * $E[X_1 | دقیقه (X_1، t)]$ | انتظار شرطی مشروط بر متغیر تصادفی نمایی |
94548 | امیدوارم بتوانید به من در درک تابع چگالی احتمال برای توزیع نمایی کمک کنید. با توجه به اینکه PDF توزیع به صورت زیر توصیف می شود که x > 0: $$\lambda e^{-\lambda x}$$ چرا در λ ضرب می کنیم؟ مطمئناً من یک چیز اساسی را در اینجا از دست می دهم، اما به نظر می رسد که اگر زمان را به رویداد مدل سازی کنیم، استفاده از e و توان ها کافی است. آیا به این دلیل است که ممکن است انتظار داشته باشیم که رویداد چندین بار در بازه زمانی اتفاق بیفتد؟ پیشاپیش از شما متشکرم. | توزیع نمایی PDF: چرا در لامبدا ضرب کنیم؟ |
40967 | من روی یک مجموعه داده کارآزمایی بالینی با پاسخ باینری کار می کنم. همه متغیرهای مستقل نیز باینری هستند. اولین انگیزه من این بود که به سادگی یک رگرسیون logit/probit استاندارد را اجرا کنم و با آن تمام کنم. اما بعد از اینکه کمی بیشتر در مورد آن فکر کردم، به این فکر کردم: آیا کار دیگری وجود دارد که بتوانم انجام دهم؟ نگرانی من از این واقعیت ناشی می شود که همه متغیرهای RHS (سمت راست، یعنی متغیرهای مستقل) نیز باینری هستند (که برای من اولین است). پیشنهادی دارید؟ | آیا جایگزین بهتری برای رگرسیون logit/probit زمانی که همه متغیرهای وابسته دوگانه هستند وجود دارد؟ |
99604 | من 1370 ژن را که از تجزیه و تحلیل توالی یابی تراشه به دست آمده اند و 652 ژن را که ژن های تنظیم شده متفاوتی هستند که با تجزیه و تحلیل آرایه موش affymetrix 430.2.0 به دست آمده اند مقایسه کرده ام. وقتی هر دو لیست ژن ها را قطع می کنم، 37 ژن مشترک دریافت می کنم. من می خواهم اهمیت این همپوشانی را محاسبه کنم. من در نظر داشتم از «فایپر» در R استفاده کنم، اما این به تعداد کل ژن ها نیاز دارد. من گیج هستم که کدام شماره را بدهم. آیا باید تعداد کل کاوشگرها را از affymetrix Chip بدهم یا باید کل شماره ژنوم موش را از داده های توالی یابی تراشه بدهم؟ آیا کسی می تواند راه هایی برای انجام این آزمون معناداری در R پیشنهاد دهد؟ با تشکر | تست هایپرهندسی |
58071 | من پلاتهای «kmeans» متعددی دارم که در R ایجاد کردهام. بهطور خاص من هفتهای ۵ دلار دارم و هر هفته یک دلار «kmeans» تولید میکنم. من روی بردارها خوشه بندی می کنم. اکثر بردارها در نمودارهای $5$ `kmeans` در هر نمودار رخ می دهند. آنچه من علاقه مند به تعیین آن هستم این است که کدام بردارها عضویت خوشه را تغییر داده اند. برای روشن شدن این موضوع، فرض کنید من یک بردار دارم که با کلمه فوتبال مشخص شده است، سپس میخواهم ببینم در week1، week2 و غیره به کدام خوشه تعلق دارد. آزمایش تغییر عضویت باید کار ساده ای باشد، برای هر خوشه بندی «kmeans»، به هر نقطه شناسه ای داده می شود که به کدام خوشه تعلق دارد. من 4 خوشه دارم، بنابراین هر هفته بردار مثال ما با نام فوتبال می تواند $1$، $2$، $3$، یا $4$ برچسب گذاری شود. راه حل ساده لوحانه این است که هر هفته برچسب را برای یک بردار خاص بررسی کنید. با این حال، این مورد نیست زیرا R به طور تصادفی برچسب ها را برای هر خوشه انتخاب می کند. من می دانم که این مورد است زیرا هر خوشه نشان دهنده دسته ای از منحنی ها است. به وضوح می توانید ببینید که الگوریتم kmeans بردارها را به 4 کلاس منحنی تقسیم کرده است. آیا راه هایی برای ثابت ماندن شناسه های برچسب برای هر خوشه وجود دارد؟ یعنی اگر خوشه ای که در week1 برچسب گذاری شده با شناسه $2$ منحنی خطی باشد، آنگاه خوشه هایی که در تمام هفته های باقیمانده $2$ برچسب گذاری شده اند همیشه خوشه خطی خواهند بود. آیا شرایط اولیه ای وجود دارد که بتوانم آن را به kmeans منتقل کنم تا این اتفاق بیفتد؟ من این سؤال را به جای stackoverflow در اینجا پست کردم زیرا معتقدم این سؤال به درک بیشتری از الگوریتم kmeans نیاز دارد. | شناسههای خوشهای پایدار روی ورودیهای مشابه با k-means |
90318 | من گاهی اوقات هنگام اجرای rugarch::ugarchforecast() مقادیر شکل زیر 4 را دریافت می کنم، اما rugarch:::.sstdexkurt() شکل زیر 4 را نمی پذیرد. rugarch:::.sstdexkurt() قرار است که کشش اضافی را برگرداند - توزیع دانش آموزی آیا این بدان معناست که rugarch::ugarchforecast() تخمین های شکل نادرستی را برمی گرداند؟ آیا می توانم از تخمین های شکل زیر 4 برای تخمین توزیع استفاده کنم؟ | R: تابع پیش بینی rugarch با توزیع چوله-دانش آموز (sstd) تخمین های شکل غیرقانونی را برمی گرداند. |
40965 | من از libSVM برای یک مشکل طبقه بندی باینری استفاده می کنم. پس از اینکه به یک نمونه آزمایشی یک برچسب (1 یا -1) اختصاص داده شد، من همچنین می خواهم بدانم که چقدر احتمال دارد چنین برچسبی به آن اختصاص داده شود. من به محاسبه فاصله نمونه تا ابر صفحه در فضای ویژگی فکر می کنم. هر چه فاصله بزرگتر باشد، احتمال اینکه انتساب برچسب درست باشد بیشتر است. آیا تصور من درست است؟ یا آیا در حال حاضر چنین گزینه ای در libSVM برای هدف من وجود دارد؟ | خروجی احتمالی برای طبقه بندی SVM باینری |
62369 | من یک رگرسیون OLS را اجرا میکنم و معلوم شد که تأثیر پیشبینیکننده اصلی من بر نتیجه Y به یکی از متغیرهای کنترل من (سن) بستگی دارد. تمرکز اصلی مقاله، توصیف میانجیهای متعددی است که X را به Y پیوند میدهند، و تقسیم نمونه قدرت من را به شدت کاهش میدهد. گزینه های من چیست؟ من تعامل را بررسی کردهام و نواحی اهمیت را محاسبه کردهام، تقسیم نمونهام بر اساس این مناطق اهمیت بسیاری از تأثیرات مهم من را از بین میبرد. آه.. آیا درست است که تعامل را به سادگی در همه تحلیلها لحاظ کنیم: به عنوان مثال، آیا گنجاندن تعامل به اندازه کافی تفاوتهای زیرگروه را کنترل میکند؟ | تفاوت های احتمالی زیر گروه در رگرسیون |
20155 | با توجه به این سوال در مورد طبقه بندی گروه ها که به طور قابل توجهی با هم تفاوت دارند، دو سوال تا حدی مبتدی/کلی دارم: 1. فرض کنید در حال انجام یک آزمون فرضیه (تفاوت بین دو میانگین) هستم و با اطمینان 95% صفر را رد می کنم. آلفا = 0.05). آیا این به این معنی است که می توانم مقادیر جدید را به A یا B با میزان موفقیت 95% پیش بینی/طبقه بندی کنم؟ اگر چنین است، چگونه می توان این کار را انجام داد؟ 2. مطمئن نیستم که سوال من در چه حوزه ای قرار می گیرد، اما آیا این به نوعی به بحث مدل سازی توضیحی در مقابل پیش بینی مربوط می شود؟ | میانگین گروه های A و B به طور قابل توجهی متفاوت است. آیا می توانم یک طبقه بندی بسازم که مقادیر را به A یا B طبقه بندی کند؟ |
44795 | بر اساس یافته های رصدخانه فضایی کپلر، ستاره شناس ست شوستاک در سال 2011 تخمین زد که در فاصله هزار سال نوری زمین، حداقل 30000 سیاره قابل سکونت وجود دارد (برگرفته از این مقاله ویکی پدیا). با استفاده از تخمین دکتر شوستاک، در کدام شعاع R از زمین (در سال نوری) میتوان 95 درصد مطمئن بود که حداقل یک سیاره قابل سکونت وجود دارد؟ | گیج سیاره فراخورشیدی |
103545 | من روی تخمین تابع چگالی کار می کنم و از کتابخانه scikit- Learn استفاده می کنم. به عنوان نمونه کد من به کد موجود در لینک زیر نگاه می کنم. شک من در این خط کد زیر است: Z = np.log(-clf.score_samples(XX)[0]) تابع clf.score_samples احتمالات Log هر نقطه داده در X را برمی گرداند. چرا گزارش ثبت برای آن اعمال می شود بار دوم؟ Log(Log P(X)) مخفف چیست؟ | مدل مخلوط گاوسی - تخمین چگالی |
112955 | من یک فرآیند MA(1) $y_t = \mu + \epsilon_t + \theta \epsilon_{t-1}$ را در R شبیهسازی کردم و سعی کردم عبارات خطای $\epsilon_t$ را فقط با محاسبه متوالی آنها بازیابی کنم (فرض میکنیم که پارامترهای $\mu$ و $\theta$). # متغیرها n = 30 mu = 10 تتا = 5 سیگما = 3 # شبیه سازی فرآیند MA(1) y = rep(1, n) epsilon1 = rep(1, n) prev.epsilon = 0 برای (t در 1: n) { epsilon1[t] = rnorm(1، میانگین = 0، sd = سیگما) y[t] = mu + epsilon1[t] + تتا * prev.epsilon prev.epsilon = epsilon1[t] } # بازیابی عبارات خطا epsilon2 = rep(1, n) epsilon2[1] = y[1] - mu برای (t در 2:n) epsilon2[t] = y[t] - mu - teta * epsilon2[t - 1] مشکل این است که این فرآیند بازیابی شامل خطاهای عددی است که تا زمانی منتشر می شود که مقادیر بازیابی شده $\epsilon_t$ به طور اساسی از مقادیر واقعی جدا شود. با این حال، من اندازه نمونه را به 30 تنظیم کردم که بسیار کوچک است. مقادیر از ترم 18 شروع به واگرایی می کنند و در اینجا آخرین مقادیر هستند: > epsilon1[n] [1] -0.6801702 > epsilon2[n] [1] -595.0506 چگونه می توانم با آن مشکل برخورد کنم؟ توجه داشته باشید که حجم نمونه واقعی بسیار بزرگتر از 30 است. | جلوگیری از انتشار خطاهای عددی |
46866 | من سعی می کنم در مورد استنتاج و به حداکثر رساندن اساساً EM سیستم های دینامیکی خطی (مثلاً فیلترهای کالمن) از کتاب تشخیص الگو و یادگیری ماشین بیشاپ بیاموزم. با این حال، من نمی توانم اشتقاق های ارائه شده در آنجا را دنبال کنم. من ایده اصلی فیلترهای کالمن را دارم و برای چه استفاده می شود. با این حال، من با مراحل یادگیری (عمداً مشتق معادلات و همه) گیج شده ام. آنها کمی پیچیده به نظر می رسند. من زمان زیادی را صرف تلاش برای کشف آنها کرده ام. اما من هنوز چند مشکل دارم. کسی میتونه به من پیشنهاد بده که از کجا میتونم ایده بگیرم چون در کتاب جزئیاتی از نحوه استخراج (معادلات) نداده اند. سوال من این است که چگونه به دست آمده است. این قطعه از تصویر دوم آخر است. ممکن است زیاد بپرسم اما واقعا دارم پیدا می کنم. سخت است که بفهمم این چگونه مشتق شده است، من واقعاً ممنون می شوم اگر کسی بتواند به من نکاتی بدهد! توضیحات تصویر در اینجا](http://i.stack.imgur.com/yJL5g.png)        | نشانگرهایی برای درک استنتاج استنتاج در سیستم های دینامیکی خطی |
45445 | من یک تحلیل عاملی بر روی 20 دلیل برای خرید 4 کالای مختلف انجام دادم. اینها در مقیاس لیکرت از 1 تا 5 با 5 بسیار مهم، 4 مهم و غیره رتبهبندی میشوند. . من این عوامل را به عنوان نمرات عامل رگرسیون در SPSS ذخیره کردم. سپس یک جدول بندی متقاطع با هر یک از کالاها به عنوان ردیف و امتیازهای ضریب رگرسیون به عنوان ستون انجام دادم. من از میانگین برای نمرات عامل رگرسیون استفاده کردم. انتظار داشتم که علامت امتیاز عامل و هر یک از کالاها در صورت وجود رابطه با آن امتیاز مثبت و در غیر این صورت منفی باشد. با این حال، علائم دقیقا معکوس هستند. بنابراین برای کالاهایی که فکر میکردم بالاترین میانگین فاکتور مثبت را دارند، من در واقع بالاترین نمره منفی را دریافت میکنم، و غیره. | میانگین نمرات عامل رگرسیون و صفات بازده جدول متقابل. چرا همه علائم مورد انتظار معکوس هستند؟ |
13052 | من یک آزمایش دوره زمانی دارم که 8 گروه درمانی 12 ماهی را به مدت 24 ساعت با مشاهدات انجام شده در فواصل 5 ثانیه دنبال می کند. از جمله اندازهگیریهای انجام شده، فاصله هر ماهی (بر حسب میلیمتر) بین مشاهدات است. 24 ساعت به 1 دوره تاریک و 1 دوره روشن تقسیم می شود. در اینجا نموداری از حرکات 12 ماهی منفرد در گروه درمانی H برای ساعت اول دوره تاریکی آورده شده است:  می بینید که برخی از ماهی ها دوره های طولانی عدم فعالیت دارند، برخی دوره های کوتاه مدت، و برخی دیگر هیچ _در این پنجره خاص_ ندارند. من باید داده های هر 12 ماهی در گروه درمان را به گونه ای ترکیب کنم که طول و تناوب دوره های استراحت در کل دوره تاریکی و کل دوره نور را شناسایی کنم. من باید این کار را برای هر گروه درمانی انجام دهم. سپس باید تفاوت بین طول دوره استراحت و فرکانس آنها را مقایسه کنم. من یک دختر آماری نیستم و کاملاً در دریا هستم. این مشکل برای من شبیه همترازی دنبالهای است (پسزمینه بیوانفوماتیک من)، بنابراین من به مدلهای Hidden Markov فکر میکنم، اما این ممکن است خیلی دور از ذهن باشد. آیا کسی می تواند یک رویکرد خوب برای این مشکل و شاید یک مثال کوچک در R پیشنهاد دهد؟ با تشکر | به دنبال الگوی رویدادها در یک سری زمانی |
94546 | من به دنبال پیوند بین تورم و ورشکستگی برای یک پروژه اقتصادسنجی هستم. من داده های ورشکستگی سه ماهه خام و داده های CPI سه ماهه خام برای انگلستان (تقریباً 100 نمونه) از 1988-2013 را دارم. هر دوی اینها در 5% غیر ثابت هستند و هر دو در بررسی داده های خام I(1) هستند. من از سطوح 5% برای تمام تست ها استفاده می کنم. با این حال، فرضیه من این است که **تفاوتهای میانگین نرخ تورم بر ورشکستگیها تأثیر میگذارد** (بنابراین مقادیر بالا یا پایین تورم باعث ورشکستگی بالاتر میشوند). نرخ دهید (و سپس تفریق میانگین را انجام دهید). محاسبه در آمار: abs(d.logCPI - mean(d.logCPI)). و، من از گزارش ورشکستگی ها استفاده می کنم، زیرا انتظار دارم در طول زمان با افزایش تعداد شرکت ها، رشد تصاعدی وجود داشته باشد. من چند سوال در این مورد دارم: 1. آیا باید ثابت بودن را روی داده های خام یا تغییراتی که فرضیه من بر آن استوار است (d.log CPI و logInsolvencies) آزمایش کنم. 2. تفاوت گزارش CPI در هنگام اجرا ثابت است dfuller، آیا این بنابراین I(0) است یا I(1) به این دلیل است که داده خام است؟ فرضیه من بر اساس تفاوت گزارش است، بنابراین آیا درصد تغییر CPI (تورم) از نظر فنی داده های خام من است؟ 3. آزمایش روی دادههای خام ورشکستگی، I(1) را نشان میدهد، اما آزمونهای ورود به سیستم ثابت و بدون تفاوت هستند، بنابراین آیا I (0) است؟ استفاده از تفاوت گزارشهای CPI و گزارش ورشکستگی، تأثیر تورم (در تعداد ورشکستگی) را به من نشان میدهد. اساساً من سعی می کنم بفهمم که آیا: 1\. من باید ثابت بودن داده های خام، داده های تغییر یافته یا هر دو را بررسی کنم. 2\. چگونه این با ترتیب ادغام تفسیر می شود. 3\. اگر گزارش دادهها ثابت به نظر میرسد، آیا این به معنای ادغام آن با I(1) است؟ | درک ثابت بودن با تورم |
13056 | فرض کنید من می خواهم مدلی بسازم تا نوعی نسبت یا درصد را پیش بینی کند. به عنوان مثال، فرض کنید میخواهم تعداد پسران در مقابل دخترانی را که در یک مهمانی شرکت میکنند پیشبینی کنم، و ویژگیهای مهمانی که میتوانم در مدل استفاده کنم مواردی مانند میزان تبلیغات برای مهمانی، اندازه محل برگزاری، یا وجود آن است. هر گونه الکل در مهمانی و غیره خواهد بود. (این فقط یک مثال ساختگی است؛ ویژگی ها واقعاً مهم نیستند.) سؤال من این است: تفاوت بین پیش بینی نسبت در مقابل درصد چیست و مدل من چگونه است. بسته به اینکه کدام را انتخاب کنم تغییر می کند؟ آیا یکی بهتر از دیگری است؟ آیا عملکرد دیگری بهتر از هر کدام است؟ (من واقعاً به اعداد مشخص نسبت به درصد اهمیت نمی دهم؛ فقط می خواهم بتوانم تشخیص دهم که کدام احزاب به احتمال زیاد «مهمانی پسرانه» در مقابل «پارتی دخترانه» هستند.) برای مثال، من هستم فکر کردن: * اگر بخواهم درصدی را پیش بینی کنم (مثلا # پسر / (# پسر + # دختر)، پس از آنجایی که ویژگی وابسته من بین 0 و 1 محدود شده است، احتمالاً باید از چیزی مانند لجستیک استفاده کنم. رگرسیون به جای رگرسیون خطی * اگر بخواهم نسبتی را پیش بینی کنم (مثلاً «# پسر / # دختر» یا «# پسر / (1 + # دختر)» برای جلوگیری از تقسیم بر صفر خطاها. ویژگی وابسته مثبت است، بنابراین ممکن است قبل از استفاده از یک رگرسیون خطی، نوعی تبدیل (log?) اعمال کنم (یا مدل دیگری؟ چه نوع مدل های رگرسیونی برای مثبت استفاده می شود؟ داده های بدون شمارش؟) * آیا به طور کلی بهتر است به جای نسبت، درصد را پیش بینی کنیم (بگوییم) و اگر چنین است، چرا؟ | ساخت یک مدل خطی برای نسبت به درصد؟ |
44796 | من در حال حاضر روی مدل های Hidden Markov کار می کنم. می دانم که ابتدا باید دنباله مشاهده را آموزش دهیم تا پارامترهای مدل مانند احتمال اولیه و انتقال را بدست آوریم. و این با استفاده از Baum-Welch انجام می شود (L.E Baum et al, 1970). حالتهای پنهان توابع چگالی احتمال چند متغیره پیوسته هستند که تقارن بیضی دارند. اما این الگوریتم زمانی با مشکلاتی مواجه می شود که چگالی حالت ها لگ مقعر نباشد. (لیپوراس، 1982). لطفاً در درک رابطه بین چگالی که مقعر غیر لگاریتمی است و چگالی که دارای تقارن بیضی است به من کمک کنید. با تشکر | توابع چگالی با تقارن بیضی شکل |
45443 | چگونه می توانم پسین غیرعادی شده را بنویسم $ f(p_1, p_2 | Y) = (z_1-1)*log(p_1) + (n_1-z_1-1)*log(1-p_1) + (z_2-1)*log (p_2) + (n_2-z_2-1)*log(1-p_2) $ از نظر log odds-ratio $\alpha$ و ورود شانس-محصول $\eta$؟ $\alpha = log \left(\frac{p_2/(1-p_2)}{p_1/(1-p_1}\right) $ و $\eta = log \left(\frac{p_2}{1-p_2} \times \frac{p_1}{1-p_1}\right)$ که در آن z_1، n_1، z_2 و n_2 ثابت هستند. | توزیع خلفی را مجدداً پارامتریزه کنید |
29760 | من اخیراً شروع به کار بر روی پایان نامه کارشناسی ارشد خود کرده ام که با همکاری دانشگاهم و یک شرکت فناوری اطلاعات است. مشکل از دیدگاه شرکت، شناسایی همبستگیها در کمپینهای بازاریابی اینترنتی آنها برای خواص مختلف، با هدف اعمال این اطلاعات در تبلیغات آینده به منظور افزایش معیارهای مربوطه (به عنوان مثال کلیک یا نرخ تبدیل) است. حوزه پایان نامه برای من تا حدودی جدید است، حتی اگر اصول اولیه را در مورد آمار، الگوریتم ها و هوش مصنوعی دارم. من در حال حاضر ایده استفاده از تکنیک های داده کاوی را در مجموعه داده ها، و به طور خاص تر، قوانین کاوی ارتباطی را که توسط Agrawal و همکارانش توضیح داده شده است، دنبال می کنم. (1993). استخراج قواعد انجمنی بر روی پایگاههای داده تراکنشی به جای رابطهای کار میکند، اگرچه دومی را میتوان به اولی تبدیل کرد با این مضرات که جدول جدید فوقالعاده بزرگ میشود، به خصوص با در نظر گرفتن طبیعیترین نوع تراکنش در این مورد یک برداشت است (یعنی یک ردیف جدول برای هر بار نمایش یک تبلیغ) که به راحتی منجر به میلیونها ردیف میشود که تنها کسری منجر به کلیک میشود. (یک سوال مرتبط ممکن است یافتن قوانین ارتباطی برای یک مقدار معین باشد، اما هنوز پاسخی به آن داده نشده است.) بنابراین ایده من این است که یک جدول تراکنش از برداشت ها از داده های رابطه ای بسازم، یک الگوریتم قانون تداعی را اعمال کنم و در نهایت هر قانون را فیلتر کنم. که منجر به کلیک نمی شود، زیرا چنین قوانینی حداقل در حال حاضر جالب توجه نیستند. ** سوالی که میخواهم بپرسم این است که آیا این یک رویکرد معقول است؟ این ممکن است برای شرکتی که از نتیجه استفاده می کند مشکلی ایجاد نکند، اما از نظر دانشگاهی من می خواهم پایه های خود را پوشش دهم. **اگر این رویکرد خوبی نیست، کدام حوزه ها ممکن است برای این هدف مناسب تر باشند؟** دریغ نکنید که بپرسید آیا چیزی وجود دارد که می خواهید توضیح دهم! | قوانین انجمن معدن در مورد داده های رابطه ای |
20250 | آیا در صورت نیاز به 250000 عدد تصادفی، مولد اعداد تصادفی در SPSS قابل استفاده خواهد بود یا تصادفی بودن شروع به انحطاط خواهد کرد؟ از راه دیگری پرسیده شد، چه محدودیت های عملی برای استفاده از مولد اعداد تصادفی در SPSS برای تولید تعداد زیادی اعداد تصادفی وجود دارد؟ | آیا محدودیتی برای تولید اعداد تصادفی SPSS وجود دارد؟ |
44421 | من با افسانه گراف TraMineR مشکل دارم. من 4 آنتروپی مختلف را برای 4 گروهی که در حال تجزیه و تحلیل هستم محاسبه کرده ام و می خواهم آنها را با استفاده از تابع 'seqplot.tentrop' در همان نمودار رسم کنم. با این حال، افسانه پیش فرض خیلی بزرگ است و من آن را به طور جداگانه با کاهش ابعاد ترسیم می کنم، اما نمی توانم رنگ های افسانه را در نسخه جدیدی که با آخرین دستور زیر ایجاد کرده ام، بازتولید کنم. plot_colors <- c(آبی، قرمز، سبز جنگلی، بنفش) seqplot.tentrop(myseq، group = job$cohort، ylim = c(0، 1)، col=plot_colors، withlegend=FALSE) افسانه (راست پایین، نامها (myseq)، c(1974-1978،1982-1986،1990-1994، 1998-2001)، cex=0.8، col=plot_colors) آیا امکان تغییر رنگ ها/خطوط نقطه چین وجود دارد؟ | تابع Legend و TraMiner seqplot.tentrop |
104435 | من سعی میکنم احتمال برد تخمینی را بین دو بازیکنی که رتبهبندیهایشان (فرض کنید چیزی شبیه رتبه الو در شطرنج باشد) محاسبه کنم. به عنوان مثال با توجه به امتیاز بازیکن A از 2000، امتیاز بازیکن B از 1800، A احتمال برد بالاتری نسبت به B خواهد داشت که می تواند با تابع f تعیین شود، به عنوان مثال. A 60% شانس دارد که B را شکست دهد. ارزش رتبه بندی خود بر اساس نتیجه بازی های گذشته است. بازیکنانی که بازیهای کمی دارند ممکن است رتبهبندی ناپایدار داشته باشند (یعنی نمونههای کافی برای تشخیص درست رتبهبندی مناسب وجود ندارد). از این رو من تعداد بازیها را معادل تعداد نمونهها میدانم، و هر چه تعداد بازیها بیشتر باشد، اطمینان بیشتری نسبت به رتبهبندی بازیکن دارم. سوال من این است که با توجه به سطح اطمینان متفاوتی برای رتبه بندی بازیکن A و بازیکن B در بالا (مثلاً بازیکن A 100 بازی انجام داده است در حالی که بازیکن B فقط 1000 بازی انجام داده است)، آیا راهی وجود دارد که بتوانم سطح اطمینان احتمال برد را استخراج کنم؟ | فاصله اطمینان از مقادیر با تعداد نمونه های مختلف محاسبه می شود |
62087 | من در ارزیابی کوواریانس یک تبدیل غیرخطی برای دو بردار $s_0^*$ و $s_1^*$ $$\left مشکل دارم| \begin{array}c} s_0^*\\\s_1^* \end{array} \right| \sim N\left( \left| \begin{array}{c}\mu_0^*\\\ \mu_1^* \end{array} \right|,\left| \begin{array}{c}\Sigma_s & \Gamma_{01} \\\ \Gamma_{10} & \Sigma_s \end{array} \right)$$ میخواهم عبارت واریانسی را پیدا کنم $$ s_1 -s_0=\frac{\exp(s_1^*)}{1+\exp(s_1^*)}-\frac{\exp(s_0^*)}{1+\exp(s_0^*) }=\text{logit}(s_1^*)-\text{logit}(s_0^*)\\\$$ $\text{Var} \left(\frac{\exp(s_1^*)}{1+\exp(s_1^*)}-\frac{\exp(s_0^*)}{1+\exp(s_0^*)}\راست )= \text{Var}(s_1)+\text{Var}(s_0)-2\text{cov}(s_1,s_0)$، من می دانم چگونه می توانم واریانس دو عبارت واریانس از روش دلتا، اما من در یافتن عبارتی برای کوواریانس بین این دو مشکل دارم. من حدس می زنم که باید به نحوی از بسط های تیلور استفاده کنم، اما خیلی سریع برای من متوقف می شود. راهنمایی در مورد اینکه چگونه باید برای یافتن این کوواریانس اقدام کنم؟ من با رابطه $\text{cov}(s_0,s_1)=\text{E}(s_0s_1)+\text{E}(s_0)\text{E}(s_1)$ آشنا هستم، بنابراین چنین است که تنها کاری که باید انجام دهم این است که $\text{E}(s_0 s_1)$ را پیدا کنم؟ من خیلی اینجا گیر کرده ام، بنابراین هر کمکی بسیار قدردانی می شود. | کوواریانس متغیرهای تبدیل شده لاجیت |
90311 | من در حال مشخص کردن برخی از آشکارسازها هستم. هر آشکارساز از یک سری عناصر تشکیل شده است، فکر کردن به یک CCD در یک دوربین یک تقریب معقول است. برای هر آشکارساز توزیعی دارم که نشان دهنده پاسخ هر پیکسل است. در تشبیه CCD، تقریباً معادل ترسیم یک CDF است که شدت مورد نیاز برای شلیک یک پیکسل معین را نشان میدهد (من نمیدانم که CCDها به این شکل کار میکنند یا خیر). در حالی که هر آشکارساز منحصر به فرد است، نمودارها همگی نسبتاً مشابه هستند (و هیچ شباهتی به توزیع پارامتری ندارند). زیرا من مدلی دارم که این منحنی را به عنوان خروجی تولید می کند. میخواهم با تعیین محدودیتهایی روی شکل منحنی، یک کار بهینهسازی کوچک را اجرا کنم. برای مثال من ممکن است بخواهم 20٪ از وکسل ها به یک مقدار حداقل و 80٪ کمتر از مقداری حداکثر باشد. من سعی میکنم راه بهینهای را برای تصمیمگیری در مورد اینکه از کدام مقدار به عنوان محدودیت استفاده کنم، بیاندیشم. به عنوان مثال، مقداری که در آن 20٪ از پیکسل ها شلیک می شوند، با بسیاری از مقادیر دیگر همبستگی نزدیک دارد، در حالی که مقداری که در آن 40٪ از پیکسل ها شلیک می شوند، بسیار کمتر است. آیا روشی وجود دارد که با استفاده از آن بتوانم از ماتریس همبستگی خود استفاده کنم تا تصمیم بگیرم که کدام سه مقدار برای اعمال محدودیت هستند. | انتخاب محدودیتهای بهینه برای بهینهسازی زمانی که محدودیتهای بالقوه همبسته هستند |
62086 | من یک طرح آزمایشی 2x2 دارم. در آزمایش، من همچنین صلاحیت های حرفه ای شرکت کنندگان را جمع آوری کردم (متغیر طبقه بندی - بله / خیر). من می خواهم تأثیر کنترل این متغیر را روی MSE آزمایش کنم. من درک می کنم که در ANCOVA، متغیر کمکی یا یک متغیر فاصله ای یا ترتیبی است. بنابراین، اگر مدارک حرفه ای را به عنوان متغیر اضافی وارد کنم، آیا باید به آزمون به عنوان ANCOVA اشاره کنم؟ یا باید یک متغیر مسدود کننده باشد زیرا مدرک صلاحیت پروفسور مقوله ای است. پیشاپیش از پاسخ های شما متشکرم | آیا متغیرهای کمکی می توانند متغیرهای طبقه ای باشند؟ |
99602 | من باید یک الگوریتم را پیاده سازی کنم (یا یک پیاده سازی پیدا کنم) و آن را با استفاده از روش مونت کارلو بهینه کنم. این باید یک NP سخت باشد مانند مشکل فروشنده مسافر یا مشکل کوله پشتی. چگونه می توان یک مسئله را دقیقاً بهینه کرد؟ همچنین باید مقدار بهینه را داشته باشم و با آن مقایسه کنم، آیا سایتی وجود دارد که برای چنین مشکلاتی بهینه را ارائه دهد؟ (چون چیزی پیدا نکردم) ممنون | بهینه سازی اجرای سخت NP با استفاده از روش مونت کارلو |
20254 | با تابع arima نتایج خوبی پیدا کردم، اما اکنون در تفسیر آنها برای استفاده در خارج از R مشکل دارم. من در حال حاضر با شرایط MA مشکل دارم، در اینجا یک مثال کوتاه وجود دارد: ser=c(1, 14, 3, 9) # نمونه سری mod=arima(ser,c(0,0,1)) #از {stats} کتابخانه mod #Series: ser #ARIMA(0,0,1) با میانگین غیر صفر # #ضرایب: # ma1 intercept # -0.9999 7.1000 #s.e. 0.5982 0.8762 # #sigma^2 بهعنوان 7.676 تخمین زده شد: احتمال گزارش = -10.56 #AIC = 27.11 AICc = Inf BIC = 25.27 mod$resid #سری زمانی: #شروع = 1 #پایان = 41 #فرکانس - = 4.3136670 3.1436951 -1.3280435 0.6708065 predict(mod,n.ahead=5) #$pred #سری زمانی: #شروع = 5 #پایان = 9 #فرکانس = 1 #[1] 6.500081 7.100020 7.100020 7.100027 7.1000027. 7.100027 # #$se #سری زمانی: #شروع = 5 #پایان = 9 #فرکانس = 1 #[1] 3.034798 3.917908 3.917908 3.917908 3.917908 ?Arima[X] فرمول مشخص شده است. a[1]X[t-1] + … + a[p]X[t-p] + e[t] + b[1]e[t-1] + … + b[q]e[t-q]` داده شده انتخاب من از شرایط AR و MA، و با توجه به اینکه من یک ثابت را گنجانده ام، این باید به: «X[t] = e[t] + b[1]e[t-1] + ثابت» کاهش یابد، اما این ثابت نیست. وقتی نتایج R را با دستی مقایسه می کنم بالا می رود محاسبات: `6.500081 != 6.429261 == -0.9999 * 0.6708065 + 7.1000` علاوه بر این، من نمی توانم در بازتولید خطاهای نمونه موفق باشم، با فرض اینکه اولی را می دانم که باید امکان پذیر باشد: 0.31-4.09 * 6.09 +0. != 14 - 3.1436951` `3.1436951 * -0.9999 +7.1000 != 3 + 1.3280435` `-1.3280435 * -0.9999 +7.1000 != 08 - 0.6` من واقعاً میتوانم این را روشن کنم. بتوانم از نتایج خوبی که به دست آورده ام استفاده کنم. | شرایط MA در آریما |
40963 | من یک مدل سری زمانی با متغیرهای ثابت دارم. آزمایش برای همبستگی بیرونی آسان نبوده است: \- به دلیل تعداد کمی از مشاهدات من نمی توانم آمار DW را محاسبه کنم. \- تست GB نشان می دهد که همبستگی وجود دارد \- آمار Correlogram Q به من چیز دیگری می گوید که نشان می دهد خود همبستگی وجود ندارد ... چه چیزی می تواند باعث این نتایج متناقض شود؟ چگونه این را مدیریت کنم؟ | نتایج متناقض در آزمون های خودهمبستگی |
40964 | من به داده های کارآزمایی بالینی نگاه می کنم که در آن تعداد بیماران مختلفی در بازوهای مختلف وجود دارد (A، B، C، D). همه بازوها دارویی دریافت می کنند که شناخته شده برای ایجاد سمیت است، اما برخی از بازوها یک داروی اضافی دریافت می کنند که ممکن است به سمیت کمک کند. من از 3 روش برای شناسایی تعداد بیماران مبتلا به سمیت استفاده کردهام و کنجکاو بودم که آیا نسبت بیماران در بازوهای مختلف بین روشها متفاوت است و آیا این نسبتها ممکن است در برخی از بازوها بیشتر بوده باشد (که نشان میدهد سمیت اضافی داروی اضافه شده) از آنچه در کل جمعیت دیده می شود. به عنوان مثال، تعداد بیماران شناسایی شده با سمیت با روش های مختلف: A B C D مجموع روش 1: 8 18 26 16 68 روش 2: 45 111 53 113 322 روش 3: 68 158 69 153 448 به طور کلی: 6195 139 139 ، من درصد بیماران در هر بازو را برای هر یک از روش ها محاسبه کرد (روش 1 بازوی A: 8/68) و آن را با کل جمعیت (695/3392) مقایسه کرد. با این حال، پس از انجام این کار، به من گفته شد که باید توسط بیماران در هر بازو عادی شود. من مطمئن نیستم که منظور از این چیست. من می توانم تعداد بیماران شناسایی شده برای هر بازو را بر تعداد کل بیماران روی بازو تقسیم کنم، اما در این صورت چگونه به من کمک می کند تا مقایسه ای را که به آن علاقه دارم انجام دهم؟ من سابقه آماری ندارم، بنابراین مطمئن نیستم که چگونه به طور کلی با این سوال مقابله کنم. | عادی سازی هنگام انجام شمارش آمار تعداد بیماران در بازوهای مختلف یک کارآزمایی بالینی |
62082 | من یک تابع توزیع احتمال برای انرژی موجود مورد انتظار $\text{P}(t)$ و یک pdf دیگر برای بار مورد انتظار $\text{E}(t)$ دارم. چگونه یک pdf برای مجموعه متغیرهای تصادفی $\text{P}(t)-\text{E}(t)$ پیدا کنم، یعنی انرژی اضافی سیستم؟ آیا این یک مدل استرس-قدرت است؟ | یک pdf بار و یک pdf ظرفیت وجود دارد، pdf مازاد (تفاوت) چیست؟ |
13058 | من برخی از دادههای زیر را دارم که وجود یک رابطه بین موجودیتهای مختلف «(A,B,C,...)» را در سیستم من در زمان «t» توضیح میدهد: در T=1 A B C D. . . A 0 2 1 0 . . . B 2 0 1 3 . . . C 2 1 0 2 . . . D 0 3 2 0 . . . . . . . . . . . در T=2 A B C D A 0 3 1 0 . . . B 3 0 1 3 . . . C 2 1 0 2 . . . D 0 3 2 0 . . . . . . . . . . . در T=3 ... هدف من این است که بفهمم چگونه ماتریس به صورت زمانی تغییر می کند و آن را به روشی معنادار توصیف کنم تا بتوانم نقاط زمانی را که در آن ماتریس دچار تغییر قابل توجهی شده است استخراج کنم (دوباره برخی از متریک های معنی دار) و همچنین منطقه ای در داخل ماتریس که این تغییر در آن رخ داده است. من فقط می دانم که آیا یک روش استاندارد برای انجام این کار وجود دارد؟ پیشنهادی دارید؟ من از Python و NumPy استفاده می کنم. | چگونه می توانم همبستگی های زمانی ماتریس ها را انجام دهم؟ |
29765 | من روی مشکلی کار می کنم که به نظر می رسد: متغیرهای ورودی * طبقه بندی * a * b * c * d * پیوسته * e متغیرهای خروجی * گسسته (اعداد صحیح) * v * x * y * پیوسته * z مسئله اصلی که من هستم مواجهه با این است که متغیرهای خروجی کاملاً مستقل از یکدیگر نیستند و هیچ رابطه ای بین آنها وجود ندارد. یعنی وابستگی وجود دارد اما نه به دلیل علیت (بالا بودن یک مقدار به این معنی نیست که مقدار دیگری نیز زیاد خواهد بود، اما احتمال بالاتر بودن مقدار دیگر بهبود مییابد) یک مثال میتواند این باشد: v - تعداد نمایشهای آگهی x - تعداد کلیکهای تبلیغاتی y - تعداد تبدیلها z - درآمد در حال حاضر، برای اینکه روی آگهی کلیک شود، ابتدا باید در جستجو ظاهر شود، بنابراین کلیک تا حدودی به Impression بستگی دارد. مجدداً، برای اینکه یک تبلیغ تبدیل شود، ابتدا باید روی آن کلیک کرد، بنابراین دوباره تبدیل تا حدودی به کلیک وابسته است. بنابراین اجرای 4 نمونه از مشکل برای پیش بینی هر یک از متغیرهای خروجی برای من منطقی نیست. در واقع باید راهی برای پیش بینی هر 4 با هم وجود داشته باشد و از وابستگی های ضمنی آنها مراقبت کرد. اما همانطور که می بینید، رابطه مستقیمی وجود نخواهد داشت، در واقع احتمالی وجود دارد که درگیر است اما نمی توان به صورت دستی آن را حل کرد. به علاوه متغیرهای خروجی مقوله ای نیستند بلکه در واقع گسسته و پیوسته هستند. هر گونه ورودی در مورد چگونگی حل این مشکل. همچنین من را به پیاده سازی های موجود برای همان و اینکه از کدام جعبه ابزار برای پیاده سازی سریع راه حل استفاده کنم راهنمایی کنید. فقط یک حدس تصادفی - من فکر می کنم این مشکل می تواند توسط شبکه های بیزی مورد هدف قرار گیرد. نظر شما چیست؟ | الگوریتم یادگیری ماشین مناسب برای این مشکل چیست؟ |
29764 | **من این مقادیر را از اندازه گیری با تلسکوپ گرفتم: 20.1، 20.2، 19.9، 20، 20.5، 20.5، 20، 19.8، 19.9، 20. می دانم که فاصله واقعی 20 کیلومتر است و خطای اندازه گیری نیست. متاثر از خطای سیستماتیک دقت تلسکوپ چقدر است؟ [پاسخ این است: ${σ}^2$=0.061]** حالا قرار است من ${σ}^2$ را با پایایی 95٪ با استفاده از تخمین بازه محاسبه کنم. بنابراین، ${σ}^2$ باید باشد: $ \frac{n* s^{2} }{ \chi^{2}_{0.975} \big(n-1\big) } ; \frac{n* s^{2} }{ \chi^{2}_{0.025} \big(n-1\big) } $ پس از استفاده از $n = 10$، $k = n-1 = 9$ و $s^{2} = 0.061$ این را دریافت می کنم: $ \frac{10*0.061}{ \chi^{2}_{0.975} \big(9\big)}; \frac{10*0.061}{ \chi^{2}_{0.025} \big(9\big) } $ درست است؟ در صورت حساب باید از n = 10 یا n-1 = 9 استفاده کنم؟ در شمارشگر باید از n-1 = 9 یا n = 10 استفاده کنم؟ وقتی به دنبال مقادیر جدول چندک $\chi^2$ هستم، آیا باید به دنبال $0.95$ و $0.05$ یا 0.975$ و $0.025$ بگردم؟ وقتی آنها می گویند که به قابلیت اطمینان $95\%$ نیاز دارند، فرض می کنم از $1- \frac{ \alpha }{2}$ و $\frac{ \alpha }{2}$ استفاده خواهم کرد. از آنجایی که $\alpha$ من $0.05$ است، فکر می کنم $0.975$ و $0.025$ مقادیر مناسبی هستند. [پاسخ این است: $σ$ = <0.173، 0.433> ] | تخمین فاصله $\sigma^2$ با قابلیت اطمینان $95\%$ |
29766 | من در حال انجام یک کار برای یک کلاس هستم که در آن باید الگوریتم میانگین متحرک ساده را کدنویسی کنم. در کتاب کپی خود، این را نوشته ام: $$\bar{y_{i}}=\frac{y_{i-1}+y_{i}+y_{i+1}}{3}$$ برای $n =3$ مورد MA، که در نزدیکی شروع و پایان مقادیر سریهای زمانی هموار شده عبارتند از: $$\bar{y_{1}}=\frac{5y_{1}+2y_{2}-y_{3}}{ 6}$$ $$\bar{y_{n}}=\frac{5y_{n}+2y_{n-1}-y_{n-2}}{6}$$ برای $n=5$ MA مورد این است: $ $\bar{y_{i}}=\frac{y_{i-2}+y_{i-1}+y_{i}+y_{i+1}+y_{i+2}}{5}$ $ با مرزهای نزدیک مقادیر: $$\bar{y_{1}}=\frac{3y_{1}+2y_{2}+y_{3}-y_{4}}{5}$$ $$\bar{y_{2 }}=\frac{4y_{1}+3y_{2}+2y_{3}+y_{4}}{10}$$ $$\bar{y_{n}}=\frac{3y_{n}+2y_{n-1}+y_{n-2}-y_{n-3}}{5}$$ $$\bar{ y_{n-1}}=\frac{4y_{n}+3y_{n-1}+2y_{n-2}+y_{n-3}}{10}$$ اما فرمولهای در حالت کلی مقادیر نزدیک به مرز را دوباره محاسبه کنید؟ متشکرم. | مقادیر نقاط داده نزدیک به شروع و پایان سری های زمانی، زمانی که با میانگین متحرک ساده هموار می شوند |
29763 | من می خواهم یک مدل مخلوط گاوسی را به برخی از داده ها برازش دهم. داده ها 1 بعدی هستند و من می خواهم همه گاوس ها را محدود کنم تا واریانس یکسانی داشته باشند. من همچنین میخواهم یک خوشه نویز پسزمینه یکنواخت داشته باشم تا نقاطی را که در یک خوشه واقعی نیستند، انتخاب کنم. من نمیدانم چند خوشه باید وجود داشته باشد، و این میتواند در یک محدوده بزرگ برای مجموعه دادههای مختلف متفاوت باشد (دهها تا هزاران ممکن است)، بنابراین در حالت ایدهآل این باید به طور خودکار انتخاب شود. همچنین ممکن است برای جلوگیری از تطبیق موارد بسیار کوچک با نویز پسزمینه، مقداری آستانه پایینتر روی ضریب اختلاط برای هر خوشه قرار دهید. بسته به مجموعه داده، از صدها تا هزاران نقطه داده وجود خواهد داشت. راه خوبی برای پیگیری این مشکل چیست؟ من کمی غرق گزینه های ممکن (EM، bayes متغیر، GMM بی نهایت، فرآیندهای dirichlet و غیره) هستم، یا اگر حتی ممکن است. | الگوریتمهای مخلوط گاوسی 1 بعدی با واریانس مساوی و خوشه نویز |
20251 | آیا کد دستوری SPSS برای انجام تحقیقات مونت کارلو در دسترس است؟ با تشکر | کد برای انجام مونت کارلو با استفاده از SPSS؟ |
1173 | در حوزه تحقیقاتی من، یک روش محبوب برای نمایش داده ها استفاده از ترکیب نمودار میله ای با میله های دسته است. به عنوان مثال،  میله های دستگیره بسته به نویسنده، بین خطاهای استاندارد و انحرافات استاندارد متناوب می شوند. به طور معمول، اندازه نمونه برای هر نوار نسبتا کوچک است - حدود شش. به نظر می رسد که این طرح ها در علوم زیستی محبوبیت خاصی دارند - برای مثال به چند مقاله اولیه BMC Biology، جلد 3 مراجعه کنید. بنابراین چگونه این داده ها را ارائه می دهید؟ **چرا از این توطئه ها بدم می آید** شخصاً این توطئه ها را دوست ندارم. 1. وقتی حجم نمونه کوچک است، چرا فقط نقاط داده تکی را نمایش ندهید. 2. sd هست یا se که نمایش داده میشه؟ هیچ کس موافق نیست که از کدام استفاده شود. 3. اصلا چرا از میله ها استفاده کنیم. داده ها (معمولا) از 0 نمی روند، اما اولین پاس در نمودار نشان می دهد که این کار انجام می شود. 4. نمودارها ایده ای در مورد محدوده یا اندازه نمونه داده ها نمی دهند. ** اسکریپت R** این کد R است که من برای تولید طرح استفاده کردم. به این ترتیب می توانید (در صورت تمایل) از همان داده ها استفاده کنید. #نامهای مجموعه داده را تولید کنید.seed(1) = c(A1، A2، A3، B1، B2، B3، C1، C2، C3) prevs = c(38، 37، 31، 31، 29، 26، 40، 32، 39) n=6; se = عددی(طول(قبلی)) برای(i در 1:طول(قبلی)) se[i] = sd(rnorm(n، قبلی، 15))/n #نقشه پایه par(fin=c(6,6 )، pin=c(6،6)، mai=c(0.8،1.0،0.0،0.125)، cex.axis=0.8) barplot(prevs,space=c(0,0,0,3,0,0, 3,0,0), names.arg=NULL, horiz=FALSE, axes=FALSE, ylab=Percent, col=c (2،3،4)، عرض = 5، ylim = محدوده (0،50)) #افزودن در CIs xx = c(2.5، 7.5، 12.5، 32.5، 37.5، 42.5، 62.5، 67.5، 72.5) برای (i در 1:length(prevs)) { lines(rep(xx[i], 2)، c(prevs[i]، prevs[i]+ se[i])) خطوط (c(xx[i]+1/2، xx[i]-1/2), rep(prevs[i]+se[i], 2)) } #محور محور (2, tick=TRUE, xaxp=c(0, 50, 5)) را اضافه کنید (1, at=xx+0.1, labels=names, font=1, tck=0, tcl=0, las=1, padj=0, col=0، cex=0.1) | گرافیک جایگزین برای توطئه های نوار دسته. |
1174 | من تست های نرمال بودن را می شناسم، اما چگونه می توانم پواسون را آزمایش کنم؟ من نمونه ای از 1000 عدد صحیح غیر منفی دارم که گمان می کنم از توزیع پواسون گرفته شده اند و می خواهم آن را آزمایش کنم. | چگونه می توانم آزمایش کنم که آیا نمونه های داده شده از توزیع پواسون گرفته شده است؟ |
114221 | من نمودار احتمال عادی را در R با استفاده از 'qqnorm' و 'qqline' رسم کردم. من راهنمایی می خواهم در مورد: 1. چگونه می توان احتمال را تخمین زد که یک داده دارای توزیع نرمال است؟ (من در مقاله ای خواندم که احتمال 0.10 لازم است تا فرض کنیم یک داده به طور معمول توزیع شده است). 2. همچنین نحوه محاسبه ضریب همبستگی برای نمودار احتمال نرمال در R چگونه است؟ 3. آیا آزمون نرمال بودن برای رگرسیون غیرخطی نیز معتبر است؟ (این ممکن است یک سوال احمقانه باشد، برای آن ببخشید!) با تشکر! | تخمین احتمال در نمودار احتمال عادی |
27617 | با استفاده از R یا SAS، میخواهم مدل گاوسی زیر را متناسب کنم: $$ \begin{pmatrix} y_{1j1} \\\ y_{1j2} \\\ y_{1j3} \\\ y_{2j1} \\\ y_ {2j2} \\\ y_{2j3} \end{pmatrix} \sim_{\text{i.i.d.}} {\cal N} \left( \begin{pmatrix} \mu_1 \\\ \mu_1 \\\ \mu_1 \\\ \mu_2 \\\ \mu_2 \\\ \mu_2 \end{pmatrix} , \Sigma \right ), j=1، \ldots n $$ با ماتریس کوواریانس دارای ساختار زیر: $$ \Sigma = \begin{pmatrix} \Sigma_0 & M \\\ M & \Sigma_0 \end{pmatrix} $$ با $\Sigma_0$ یک ماتریس کوواریانس تقارن مرکب (قابل تعویض) و $M=\delta \begin{pmatrix} 1 & 1 & 1 \ \\ 1 و 1 و 1 \\\ 1 و 1 و 1 \end{pmatrix}$، $\delta \in \mathbb{R}$. نکته مهم، من به یک ماتریس قابل تعویض کلی $\Sigma_0$، با همبستگی احتمالاً منفی نیاز دارم. ویرایش: با توجه به برخی نظرات (و حتی پاسخی) که در زیر داده شده است، باید یک دقت را اضافه کنم: من با PROC MIXED در SAS و nlme در R مبتدی نیستم و می دانم چگونه مستندات را بررسی کنم. اما با وجود تجربه ای که دارم نمی توانم این مدل را مناسب کنم. | برازش یک مدل گاوسی خاص |
40961 | من میخواهم قابلیت اطمینان درون ارزیاب را در یک مطالعه MRI تخمین بزنم. مناطق مختلف مورد علاقه به صورت دستی با نشانگر ماوس ردیابی شدند تا حجم آنها تخمین زده شود. همه داده ها توسط یک ارزیاب ردیابی شدند و زیر مجموعه ای از داده ها دو بار ردیابی شدند. چگونه می توانم قابلیت اطمینان درونی حجم های مغز را تخمین بزنم؟ به طور خاص، کدام نوع ضریب همبستگی درون طبقاتی را پیشنهاد می کنید؟ | قابلیت اطمینان درون ارزیاب |
40969 | آیا کتاب و مقاله خوبی برای معرفی فرآیند کاوی وجود دارد؟ نتایج تحقیقات پیشرفته برای فرآیند کاوی چیست؟ تفاوت بین فرآیند کاوی و پیش بینی سری های زمانی چیست؟ | چند سوال اساسی برای فرآیند کاوی |
59036 | من رگرسیون های پیش بینی کننده را روی بازده سهام اجرا می کنم و همانطور که انتظار می رود روابط کمتری در خارج از نمونه نسبت به درون نمونه حفظ می شود، با این حال در برخی موارد رابطه قابل توجهی در خارج از نمونه اما نه درون نمونه در سطوح معنی دار معمول پیدا کردم (90 ٪، 95٪ یا 99٪ برای یک سری پیش بینی بالقوه. آیا این امکان پذیر است؟ چگونه می توان این را تفسیر کرد؟ چگونه یک رگرسیون تکراری روی یک مجموعه داده می تواند نتایج بهتری نسبت به استفاده از همه اطلاعات به طور همزمان داشته باشد... برای ارزیابی اهمیت در نمونه، من فقط آمار t ضریب شیب را بررسی می کنم و در خارج از نمونه از میانگین استفاده می کنم. روش مبتنی بر خطای پیشبینی مربعی که خطاهای مدل من حاوی پیشبینیکننده بالقوه را با مدلی که فقط حاوی میانگین بازگشت تاریخی است مقایسه میکند. | تفسیر خارج از نمونه در مقابل تفسیر درون نمونه |
97938 | من از واگرایی KL به عنوان معیار عدم تشابه بین 2 $p.m.f.$ $P$ و $Q$ استفاده می کنم. $$D_{KL}(P||Q) = \sum_{i=1}^N \ln \left( \frac{P_i}{Q_i} \راست) P_i$$ $$=-\sum P(X_i )ln\left(Q(X_i)\right) + \sum P(X_i)ln\left(P(X_i)\right)$$ اگر $$P(X_i)=0$$ سپس به راحتی می توانیم محاسبه کنیم که $$P(X_i)ln\left(Q(X_i)\right)=0$$$$P(X_i)ln\left(P(X_i )\right)=0$$ اما اگر $$P(X_i)\ne0$$ و $$Q(X_i)=0$$ چگونه محاسبه کنیم $$P(X_i)ln\چپ(Q(X_i)\راست)$$ | واگرایی Kullback-Leibler را در عمل محاسبه کنید؟ |
27610 | **طراحی مطالعه:** به شرکت کنندگان اطلاعاتی در مورد افزایش سطح دریا نشان دادم، اطلاعات را به روش های مختلف، هم از نظر مقیاس زمانی و هم از نظر بزرگی افزایش بالقوه، متمرکز می کردم. بنابراین من یک طرح 2 (زمان: 2050 یا 2100) در 2 (قدر: متوسط یا زیاد) داشتم. همچنین دو گروه کنترل بودند که هیچ اطلاعاتی دریافت نکردند و فقط به سوالات مربوط به DVهای من پاسخ دادند. **سوالات:** من همیشه نرمال بودن را در سلول ها بررسی کرده ام -- برای بخش 2x2 این طرح، به این معنی است که به دنبال نرمال بودن در 4 گروه می گردم. با این حال، خواندن برخی از بحثها در اینجا باعث شد که روشهایم را حدس بزنم. اول، خوانده ام که باید به عادی بودن باقیمانده ها نگاه کنم. **چگونه می توانم نرمال بودن باقیمانده ها (در SPSS یا جاهای دیگر) را بررسی کنم؟** آیا باید این کار را برای هر یک از 4 گروه (6 شامل کنترل ها) انجام دهم؟ من همچنین خواندم که ** نرمال بودن در گروه ها بر نرمال بودن باقیمانده ها دلالت دارد. آیا این درست است؟** (ارجاعات ادبیات؟) باز هم، آیا این به معنای نگاه کردن به هر یک از 4 سلول جداگانه است؟ به طور خلاصه، **چه قدم هایی برای تعیین اینکه آیا داده های (2x2) شما مفروضات عادی بودن را نقض نمی کنند، باید انجام دهید؟** ارجاعات همیشه مورد قدردانی قرار می گیرند، حتی اگر صرفاً برای راهنمایی من در جهت درست باشد. | چگونه نرمال بودن را در ANOVA 2x2 تست کنیم؟ |
59039 | من یک سری تست دارم که همه آنها سختی های متفاوتی دارند و از هر کدام یک نمره متوسط و یک انحراف معیار جمعیت می گیرم. به عنوان مثال: 86.94% 16.27% 84.17% 6.52% 99.55% 1.19% 81.70% 9.61% 99.82% 0.34% در حال حاضر، واضح است که آخرین آزمایش، که میانگین 99.82% دارد و انحراف استاندارد بسیار آسانتر از 0.34% است. با میانگین 81.7% و انحراف معیار 9.61% (البته با فرض اینکه تغییرات نتایج ناشی از دشواری باشد و نه جمعیتی که در آزمون شرکت کردند). چیزی که من سعی می کنم بفهمم ضریبی است که فقط از آن داده ها برای به دست آوردن عددی استفاده می کند که به درستی نشان می دهد که یک تست چقدر سخت تر از بقیه بود. امیدوارم بتوانید کمک کنید. btw: متاسفم برای برچسب اشتباه، من مطمئن نیستم که مناسب باشد. | از چه ضریبی می توانم برای محاسبه سختی نسبی یک آزمون در رابطه با آزمون های دیگر فقط با استفاده از میانگین و انحراف معیار جمعیت استفاده کنم؟ |
23507 | من شیفته مفهوم مدل مارکوف حداکثر آنتروپی (MEMM) هستم، و در فکر استفاده از آن برای برچسب بخشی از گفتار (POS) هستم. در حال حاضر، من از یک طبقهبندیکننده معمولی حداکثر آنتروپی (ME) برای برچسبگذاری هر کلمه استفاده میکنم. این از تعدادی ویژگی از جمله دو تگ قبلی استفاده می کند. MEMM ها از الگوریتم Viterbi برای یافتن مسیر بهینه از طریق زنجیره مارکوف استفاده می کنند (یعنی یافتن مجموعه بهینه کاملی از برچسب ها برای جمله به جای بهینه های فردی برای هر کلمه). با خواندن در مورد آن، به نظر می رسد که این ظرافت و سادگی فوق العاده ای دارد. با این حال، هر مرحله فقط به نتایج مرحله قبل (یعنی طبق زنجیره مارکوف) متکی است. با این حال، مدل ME من از دو مرحله قبلی (یعنی برچسب های دو کلمه قبلی) استفاده می کند. به نظر میرسد که من دو رویکرد ممکن دارم: * مانند یک پیادهسازی مرسوم Viterbi، از مجموعهای از مسیرها استفاده کنید که مطابق یک مرحله (قبلی) ذخیره شدهاند. طبقهبندیکننده ME من از این مرحله و یک مرحله منجمد قبل از این (تجمیع در مسیر مورد نظر) برای تولید تابع انتقال استفاده میکند. * یا الگوریتم را برای پیگیری دو مرحله می نویسم. این پیچیده تر است و دیگر یک مدل مارکوف واقعی نخواهد بود زیرا هر تابع انتقال (یعنی از مدل ME) به دو مرحله قبل بستگی دارد نه یک مرحله. به نظرم می رسد که دومی دقیق تر خواهد بود، اگرچه پیچیده تر خواهد بود. من هنوز در طول جستجوی ادبیاتم نمونه ای از این را پیدا نکرده ام. آیا امتحان شده است؟ آیا رویکرد دو مرحله ای باعث بهبود دقت کلی شد؟ | ایجاد یک مدل مارکوف حداکثر آنتروپی از طبقهبندیکننده حداکثر آنتروپی چند ورودی موجود |
92267 | برخی از انواع عادی سازی مانند تغییر مقیاس، امتیاز استاندارد یا امتیاز استاندارد اصلاح شده وجود دارد. من می توانم این الگوریتم ها را در مجموعه داده های بزرگ اعمال کنم. اگر مجموعه دادهای که من روی آن کار میکنم مرتباً بهروزرسانی شود، مانند درج، بهروزرسانی یا حذف، برای هر بهروزرسانی، باید کل مجموعه داده را دوباره پردازش کنم. پردازش کل داده ها فقط برای 1 به روز رسانی پرهزینه است. اجازه دهید واضح تر بگوییم اگر سن کاربر را عادی کنم، بنابراین هر به روز رسانی سن کاربر، حذف کاربر یا درج کاربر می تواند بر پارامترهای عادی سازی مانند حداکثر سن یا حداقل سن و غیره تأثیر بگذارد. | عادی سازی در مجموعه داده هایی که اغلب به روز می شوند |
23505 | در مورد الگوریتم HTM هاوکینز. آیا کسی روش مفیدی برای تعریف تعداد گره ها در یک لایه و تعداد لایه ها در یک شبکه پیدا کرده است؟ | روش خوبی برای طراحی شبکه HTM از نظر عمق و وسعت چیست؟ |
65886 | داشتم این کتاب مربوط به تشخیص الگو و یادگیری ماشین توسط بیشاپ را می خواندم. با این حال، من یک سردرگمی در رابطه با یک مشتق دارم در کتاب وقتی حاشیه حاشیه متغیرهای پنهان را محاسبه می کنند، من هستم باشه تا اما در صفحه پیوست، من گیج شدم که منظور آنها از احتمال شرطی $z_{nk} = 1$ است و آنها $\gamma(z_{nk}) = \sum_{z}\gamma(z) z_{nk دارند. }$ در اینجا z به چه معناست؟ فرض کنید مثالی دارم با z=[z1...zN] آیا این به معنای انتظار بیش از همه ترکیب های ممکن از z است، فرض کنید 3 مقدار ممکن برای هر متغیر پنهان دارم. پس یعنی N^3 هست؟ من گیج شدم هر توضیحی؟ همچنین من در مورد بخش حداکثر سازی گیج شده ام در طول بیشینه سازی، آنها $\pi_{k}$ را به صورت $\pi_{k} = \frac{\gamma(z_{1k})}{\sum_{j=1}^{ محاسبه میکنند. K} \گاما{z_{(1j)}}}$. آیا مجموع قسمت پایین برابر با 1 نیست؟ بنابراین چیزی را تغییر نمی دهد. پیشنهادات؟  | سردرگمی مربوط به HMM |
111331 | ادبیات آماری پایه در مورد پیشینه دقیق توزیع نرمال صحبت نمی کند. اساس این فرض در روان سنجی است یا منشأ آن در آمار محض یعنی نظریه نمونه گیری است. | آیا نظریه توزیع نرمال از ادبیات روان سنجی، به ویژه نظریه قابلیت اطمینان سرچشمه می گیرد؟ |
65889 | راه آسان و ساده ای برای دریافت پاسخ های آنلاین از دانش آموزان در کلاس برای استفاده در تظاهرات کلاس چیست. به عنوان مثال قد و وزن. یک روش بررسی سریع در کلاس کامپیوتر می تواند کار آزمایشگاهی را جالب تر کند. هر ایده ای؟ ممنون که خواندید. | چگونه می توان به سرعت داده ها (نظرسنجی) را از دانش آموزان در کلاس جمع آوری کرد؟ |
8541 | من سعی کرده ام منبع قابل توجهی برای استفاده از نمونه برداری گیبس در شبکه های بیزی ترکیبی، یعنی شبکه هایی با متغیرهای پیوسته و گسسته به دست بیاورم. تا اینجای کار نمی توانم بگویم موفق بوده ام. من به شبکه های ترکیبی علاقه مند هستم که در آن هیچ محدودیتی در رابطه با داشتن والدین دائمی فرزندان گسسته وجود ندارد. نمونه گیری گیبس روشی بسیار پرکاربرد در استنتاج تقریبی در روش های بیزی است، و با این حال، به نظر نمی رسد منابع دقیقی پیدا کنم که بر شبکه های ترکیبی تمرکز کنند. | منابع در مورد نمونه برداری گیبس در شبکه های بیزی ترکیبی |
65887 | آزمون موقت چیست؟ مقابل آزمون موقت چیست؟ چه ارتباطی با آزمون تعقیبی دارد؟ من آن را در آزمون گلدفلد-کواندت یافتم > آزمون پارامتریک گلدفلد-کواندت یک تشخیص ساده و شهودی > برای خطاهای هتروسکداستیکی در یک مدل رگرسیون تک متغیره یا چند متغیره ارائه می دهد. با این حال برخی از معایب تحت مشخصات خاص یا در مقایسه با سایر تشخیصها، یعنی تست بروش-پاگان، به وجود میآیند، زیرا آزمون گلدفلد-کواندت تا حدودی **یک تست موقت** است. در درجه اول، آزمون گلدفلد-کواندت مستلزم این است که داده ها در امتداد یک متغیر توضیحی شناخته شده مرتب شوند. آزمون پارامتریک در امتداد این متغیر توضیحی از > کمتر به بالاترین مرتب می شود. اگر ساختار خطا به یک متغیر ناشناخته یا > یک متغیر مشاهده نشده بستگی داشته باشد، آزمون گلدفلد-کواندت راهنمایی کمی ارائه می دهد. > همچنین، واریانس خطا باید تابع یکنواخت متغیر توضیحی > مشخص شده باشد. به عنوان مثال، زمانی که با یک تابع درجه دوم > نگاشت متغیر توضیحی به واریانس خطا مواجه می شویم، آزمون گلدفلد-کواندت > ممکن است به طور نادرست فرضیه صفر خطاهای هموسکداستی را بپذیرد. | آزمون موقت چیست؟ |
92266 | من یک سوال دارم. فرض کنید 1500 نمونه به عنوان مجموعه داده به شما داده شده است، که در آن نمونه به 1 از 3 کلاس طبقه بندی می شود. شما قرار است بهترین مدل را از بهترین الگوریتم یادگیری ارائه دهید. قبل از آن، قرار است یک مدل پیشفرض برای مقایسه داشته باشید تا تحلیلی داشته باشید، یعنی اینکه چگونه این بهترین مدل بهتر از مدل پیشفرض است. مدل پیش فرض مقایسه در این مورد چه خواهد بود؟ متشکرم. کمک شما بسیار قابل تقدیر است :) | از چه مدلی به عنوان مدل پیش فرض خود برای مقایسه استفاده می کنید؟ |
92263 | این فرمول برای محاسبه ضریب همبستگی بین یک مقدار موضوع واحد ($z$) و دو متغیر مرجع ($x$ و $y$) است.  سوال این است که چگونه می توان آن را به مواردی که 3 یا بیشتر متغیر در مجموعه مرجع وجود دارد گسترش داد. به روز رسانی: اضافه کردن توضیحی به دلیل نامشخص بودن نماد... $x$، $y$، $z$ و غیره متغیرهایی (خطوط) هستند. $R$ ضریب همبستگی است، $R$zx ضریب همبستگی بین $z$ و $x$ است (در اینجا در تعریف 2 تعریف شده است). $R$z,xy ضریب همبستگی یک متغیر وابسته $z$ به دو متغیر مستقل است: $x$ و $y$ (تعریف شده در تعریف 1 در اینجا که همچنین گفته شده است که ممکن است به آن نیز گسترش یابد. بیش از دو متغیر مستقل اما توضیح داده نشده است). | فرمول ضریب همبستگی در برابر 3 متغیر یا بیشتر چیست؟ |
55624 | خلاصه: شبیه سازی های من با محاسبه توان من مطابقت ندارد. (این سوال نسبتا طولانی شده است، بنابراین ممکن است تا آخر نخوانید. فکر میکنم این یک مشکل اندازه نمونه است.) من برای کمک به طراحی یک مطالعه شبیهسازیهایی را اجرا میکنم، و با چیزی مواجه میشوم که مرا گیج میکند. دو گروه وجود دارد، درمان شده و درمان نشده، که نتیجه آن سقوط است. ما نرخ تصادف تخمینی 0.1 در گروه درمان نشده داریم و فکر می کنیم می توانیم این میزان را به 0.08 کاهش دهیم. حجم نمونه کوچک (و غیر ممکن) در هر گروه 100 است. بنابراین من power.prop.test() را برای تخمین قدرت اجرا می کنم. power.prop.test(p1=0.1, p2=0.08, n=100) > power.prop.test(p1=0.1, p2=0.08, n=100) مقایسه دو نمونه ای از محاسبه توان نسبت ها n = 100 p1 = 0.1 p2 = 0.08 sig.level = 0.05 توان = 0.07122973 جایگزین = two.sided توجه: n عددی در *هر* گروه است، سپس من یک شبیه سازی را اجرا کردم، زیرا می خواستم بررسی کنم که چند وقت یکبار در مورد بهترین درمان تصمیم اشتباه می گیریم. کتابخانه (دقیق) #یک قاب داده به نام d ایجاد کنید، آن را با اعداد بالا پر کنید. set.seed(12345) nدرمان شده <- 100 nدرمان نشده <- 100 مورد درمان <- 0.1 پروب درمان نشده <- 0.08 روز <- data.frame(id = 1:10000) d$nدرمان <- nدرمان درمان شده <T$n درمان شده <- probTreated d$probUntreated <- probUntreated #تولید برخی نتایج تصادفی با استفاده از rbinom() d$treatedCrashes <- application(cbind(d$nTreated, d$probTreated), 1, function(x) sum(rbinom(x[1] , 1, x[2]))) d$untreatedCrashes <- اعمال (cbind(d$nدرمان نشده، d$prob درمان نشده)، 1، تابع(x) sum(rbinom(x[1], 1، x[2]))) #آزمون دقیق فیشر را روی هر تکرار انجام دهید: d$fisher < - application(cbind(d$nTreated - d$treatedCrashes, d$treatedCrashes, d$nUntreated - d$untreatedCrashes, d$untreatedCrashes, 1, function(x) fisher.test(matrix(x, nrow=2))$p.value) #test power mean(d$fisher < 0.05) و من 4.8% توان دریافت می کنم ، که کمتر از تابع power.prop.test گفته شده است، و کمتر از 0.05 است - که به نظر اشتباه می رسد. > mean(d$fisher < 0.05) [1] 0.0478 آیا این در مورد تقریب نمونه کوچک است؟ آیا این یک خطای کدگذاری احمقانه است؟ (فکر نمی کنم اینطور باشد، اما قبلاً در مورد آن اشتباه کرده ام). آیا چیزی است که من به آن فکر نکرده ام؟ در پاسخ به این پیشنهاد که به این دلیل است که تست دقیق فیشر مشروط به حاشیه است، من مدل را با آزمون بارنارد (در کتابخانه دقیق) دوباره اجرا کردم. (اما من به 1000 تکرار کاهش دادم، زیرا این کار 40 دقیقه طول کشید). d$exact <- application(cbind(d$nTreated - d$treatedCrashes, d$treatedCrashes, d$nUntreated - d$untreatedCrashes, d$untreatedCrashes), 1, function(x) exact.test(matrix(x, nrow= 2)، to.plot=F، cond.row=T)$p.value) d$exact <- lapply(d$exact، تابع(x) x[1][[1]]) mean(d$exact <0.05) > mean(d$exact <0.05) [1] 0.049 تقریباً همان قدرت را دارم . با این حال، من همچنین با استفاده از تابع power.exact.test، یک تست دقیق برای قدرت با استفاده از تابع power.exact.test () نیز در کتابخانه Exact انجام دادم که سطح بسیار مشابهی از قدرت را نشان می دهد: > power.exact.test(p1=0.1, p2=0.08 , n1=100, n2=100,simulation=T, nsim=1000, method=Boschloo) $power [1] 0.045 $alternative [1] two.sided $method [1] Boschloo که باعث میشود فکر کنم مشکل اندازه نمونه است. | شبیه سازی آزمایش دقیق فیشر قدرت را دست کم می گیرد |
50410 | **زمینه** من یک سری مؤلفه های اصلی دارم که روی برخی از داده ها پسرفت می کنم (مشکل جداسازی منبع کور است؛ من فرض می کنم که داده های من ترکیبی خطی از سیگنال هایی است که از طریق PCA به دست آورده ام) و باید تصمیم گیری در مورد تعداد اجزای مدل؛ من این کار را از طریق اعتبارسنجی متقاطع $K$-fold انجام دادم. **مشکل** من مشکل دارم زیرا تعداد اجزای انتخاب شده از طریق CV به انتخاب $K$، تعداد تاهای رویه CV بسیار حساس است. من $n=40$ نقطه داده و حداکثر 8 مؤلفه برای رگرسیون داده ها دارم. در اینجا نمونهای از یک رویه اعتباری متقاطع $10$-fold آمده است:  در این حالت، حداقل خطای CV با استفاده از 8 مؤلفه رخ میدهد. ، اما مقدار 1-SE دور از این مقدار 3 است، بنابراین ممکن است وسوسه شوم که از 3 جزء در این مورد استفاده کنم. با این حال، در این مورد، چینهای اعتبارسنجی بسیار کوچک هستند، و این واریانس بالای خطای CV را توضیح میدهد. اگر در عوض از CV 5$- برابر استفاده کنم، مقدار 1-SE از حداقل 7 مولفه فاصله دارد. این عدد برای هر مقدار $K$ نوسان می کند و به همین ترتیب تعداد مؤلفه هایی که در آن حداقل جهانی است، نوسان می کند. **رویکرد من** پس از بررسی چندین نمودار CV برای $K$های مختلف، به این نکته اشاره کردم که همیشه حداقل محلی در 4 جزء وجود دارد و به دنبال آن خطای CV- در اجزای $>4$ افزایش می یابد، و به دنبال آن افزایش می یابد. با حداقل جهانی برای اجزای 7-8 دلار. با توجه به اینکه من از مولفه های اصلی استفاده می کنم، به نظر من منطقی به نظر می رسد که از این عدد به عنوان تعداد بهینه اجزا استفاده کنم زیرا این اولین حداقلی است که با شمارش از کمترین تا بیشترین تعداد مؤلفه ها (با توجه به اینکه تعداد اجزا بر حسب مقادیر ویژه مرتب شده اند). با این حال، من متوجه میشوم که این استدلال به هیچ وجه «پاک» یا «ظریف» راهحل/توضیح برای مشکل موجود نیست. به نظر من شهودی است... آیا توصیه ای در مورد گسترش این راه حل یا پیشنهاد راه حل دیگری دارید؟ | انتخاب تعداد اجزای یک مدل خطی از طریق اعتبارسنجی متقاطع |
8545 | من در استفاده (و یافتن) آزمون چاو برای شکستهای ساختاری در تحلیل رگرسیون با استفاده از R مشکل دارم. یعنی آیا رگرسیون با زیرمنطقه ها بهتر از مدل کلی است. بنابراین من نیاز به اعتبار سنجی آماری دارم. امیدوارم مشکلم روشن باشد، اینطور نیست؟ با احترام مثال marco Toy در R: library(mlbench) # data data (BostonHousing) # آماده سازی داده BostonHousing$region <- ifelse(BostonHousing$medv <= quantile(BostonHousing$medv)[2], 1, ifelse(BostonHousing $medv <= quantile(BostonHousing$medv)[3]، 2, ifelse(BostonHousing$medv > quantile(BostonHousing$medv)[4], 3, 1))) BostonHousing$region <- as.factor(BostonHousing$region) # رگرسیون بدون هیچ گونه زیرمنطقه reg1<- lm(medv ~ crim + indus + rm، data=BostonHousing) خلاصه (reg1) # هستند شکست های ساختاری با استفاده از فاکتور منطقه وجود دارد که # نشان دهنده 3 منطقه فرعی فضایی reg2<- lm(medv ~ crim + indus + rm + region, data = BostonHousing) \-------- ورودی بعدی من با بسته پیشنهادی شما مشکل داشتم strucchange، نمی دانم چگونه از آرگومان های از و به به درستی با فاکتور منطقه استفاده کنم. با این وجود، من یک راهنمایی برای محاسبه آن با دست پیدا کردم (https://stat.ethz.ch/pipermail/r-help/2007-June/133540.html). این منجر به خروجی زیر می شود، اما اکنون مطمئن نیستم که آیا درخواست من معتبر است یا خیر. نتایج حاصل از مثال بالا در زیر. آیا این بدان معناست که منطقه 3 با منطقه 1 تفاوت معنی داری دارد؟ برعکس، منطقه 2 نیست؟ علاوه بر این، هر پارامتر (به عنوان مثال region1:crim) به ترتیب نشان دهنده بتا برای هر رژیم و مدل برای این منطقه است؟ در نهایت، ANOVA بیان می کند که یک نشانه وجود دارد. تفاوت بین این مدل ها و اینکه در نظر گرفتن رژیم ها منجر به مدل بهتری می شود؟ ممنون از راهنمایی های شما! بهترین Marco fm0 <- lm(medv ~ crim + indus + rm, data=BostonHousing) خلاصه (fm0) fm1 <- lm(medv ~ region / (crim + indus + rm), data=bostonHousing) خلاصه (fm1) anova( fm0، fm1) نتایج: فراخوانی: lm(فرمول = medv ~ region/(crim + indus + rm), data = BostonHousing) باقیمانده ها: Min 1Q Median 3Q Max -21.079383 -1.899551 0.005642 1.745593 23.588334 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 12.40774 3.07656 4.033 6.38e-05 *** region2 6.01111 7.25917 0.828 0.408030 region3 -34.6559034 -34.659034. 8.95e-12 *** region1:crim -0.19758 0.02415 -8.182 2.39e-15 *** region2:crim -0.03883 0.11787 -0.329 0.741954 region3:crim 0.7224 0.7245 0.000484 *** region1:indus -0.34420 0.04314 -7.978 1.04e-14 *** region2:indus -0.02127 0.06172 -0.345 0.730520 region3:indus 6.3874640. 0.000275 *** region1:rm 1.85877 0.47409 3.921 0.000101 *** region2:rm 0.20768 1.10873 0.187 0.851491 region3:rm 7.7801801-7.780180 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 4.008 در 494 درجه آزادی چندگانه R-squared: 0.8142، R-squared تنظیم شده: 0.810 آمار: 196.8 در 11 و 494 DF، p-value: < 2.2e-16 > anova(fm0, fm1) تجزیه و تحلیل جدول واریانس مدل 1: medv ~ crim + indus + rm مدل 2: medv ~ منطقه/(crim + indus + rm) Res.Df RSS Df مجموع مربع F Pr(>F) 1 502 18559.4 2 494 7936.6 8 10623 82.65 < 2.2e-16 *** --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 | شناسایی شکست های ساختاری در رگرسیون با آزمون چاو |
23502 | مهندسی ویژگی اغلب یک جزء مهم برای یادگیری ماشین است (به شدت برای برنده شدن جام KDD در سال 2010 استفاده شد). با این حال، من متوجه شدم که اکثر تکنیک های مهندسی ویژگی یا * هر معنای شهودی ویژگی های اساسی را از بین می برند یا * برای یک دامنه خاص یا حتی انواع خاصی از ویژگی ها بسیار خاص هستند. یک مثال کلاسیک از اولی، تحلیل مؤلفه اصلی است. به نظر من هر دانشی که یک متخصص موضوع در مورد ویژگی ها داشته باشد با تبدیل آن ویژگی ها به اجزای اصلی از بین می رود. آن را با یک تکنیک ساده تبدیل تاریخ به ویژگیهای «روز ماه» و «روز هفته» مقایسه کنید. معنای اساسی هنوز در ویژگی های جدید حفظ می شود، اما بدیهی است که این تکنیک خاص فقط برای تاریخ ها اعمال می شود و نه ویژگی های دلخواه. آیا بدنه استانداردی از تکنیک های مهندسی ویژگی وجود دارد که معنای ویژگی های اساسی را از بین نبرد و در عین حال برای دامنه های دلخواه (یا حداقل طیف گسترده ای از دامنه ها) نیز قابل اجرا باشد؟ | مهندسی ویژگی دامنه-آگنوستیک که معنای معنایی را حفظ می کند؟ |
27618 | متغیر مجموع دو متغیر تصادفی است که به ترتیب از توزیع گاما و یکنواخت تبعیت می کنند. پارامترهای متغیر توزیع یکنواخت تعیین می شوند و دیگری باید از محاسبه زمان واقعی بازیابی شود. من می خواهم مرز متغیر جمع شده را پیدا کنم، مانند استفاده از قانون سه سیگما برای توزیع نرمال. آیا روش خوبی برای تخمین آن وجود دارد؟ برخی از نابرابریها، مانند نابرابری چبیشف، ممکن است بسیار عمومی از یک روش باشد به طوری که دقیقاً مانند قانون سه سیگما عمل نکند. | چگونه می توان مقدار مرزی را برای یک متغیر تصادفی که مجموع متغیرهای دارای توزیع گاما و یکنواخت است محاسبه کرد؟ |
59035 | نرخ خطای نوع 1، میزان خطای نوع 2 و پاور اگر در صورت لزوم برای مقایسه های متعدد تنظیم نشود، چه اتفاقی می افتد؟ در نتیجه استفاده از چیزی مانند تنظیم بونفرونی چه اتفاقی برای اینها می افتد؟ | چه زمانی تستهای پسهک نیاز به تنظیم برای مقایسههای چندگانه دارند |
101073 | >> ، بعد از اینکه با نحوه انجام یکی آشنا شدم، میتوانم این کارها را انجام دهم که در اوراق من رایج است. ما باید از توزیع مجذور کای استفاده کنیم، اما من نمی توانم مقادیر مورد انتظار را پیدا کنم. من نمی دانم زیرا آنها انتظارات را نمی گویند. | چگونه می توانم مقادیر مورد انتظار را برای این نوع سؤال مربع Chi پیدا کنم؟ |
88394 | فرض کنید CDF برای توزیع پارتو را داریم که توسط: $$ P(X \leq x) = 1-\left(\frac{x_m}{x}\right)^\alpha \;\;\;\;\ ;\;\;\;\;\; x \geq x_m$$ راه بصری برای یافتن آلفای که قانون 80/20 برای آن صادق است چیست؟ | نحوه استخراج $\alpha$ برای قانون پارتو |
52811 | نمونه های بی شماری از پیشین های پراکنده وجود دارد که برای اجازه دادن به داده ها برای صحبت کردن استفاده می شوند. با این حال، چه میشود اگر تجربه گذشته فرد باعث شود که نسبت به دادههای جدید شک داشته باشید، بدون اینکه لزوماً قبل از اینکه قسمت عمده چگالی در کجا قرار دارد، پیشبینی کنید. آیا راهی برای داشتن یک پیشین منتشر وجود دارد که با این وجود به شدت بر خلفی تأثیر می گذارد؟ **ویرایش برای روشن شدن:** من به موقعیتی فکر می کنم که در آن شما می خواهید مقداری از عقل یک محقق باتجربه را که چیزی در مورد یک حوزه خاص نمی داند اما در مورد مقدار شواهد مورد نیاز قبل از اینکه او یافته ای را می پذیرد چیزی شبیه داستان Ioannidis. بنابراین پراکنده است زیرا دلیلی ندارید که یک ارزش را نسبت به مقدار دیگر باور کنید، اما از این جهت آموزنده است که می خواهید داده ها را کم کنید. | آیا پیشین پراکنده همیشه ضعیف است؟ |
52818 | من در حال انجام کارهایی هستم که شامل ترکیب احتمالات چند رویداد مستقل و غیرمتمایز در یک احتمال کلی برای وقوع هر رویدادی است. ما از معادله ای مانند این استفاده می کنیم: $P(A_1 \cup A_2 \cup \dots \cup A_N) = 1 - \prod_{i=1}^N{(1 - P(A_i))}$ آیا نامی وجود دارد برای این معادله؟ به نظر نمیرسد که در نظریه احتمال نمیتوانم پیدا کنم که از کجا آمده است. | نام این معادله برای ترکیب احتمالات چیست؟ |
23509 | من از مدل های SVM برای پیش بینی کوتاه مدت آلاینده های هوا استفاده می کنم. برای آموزش یک مدل جدید، باید متاپارامترهای مناسب برای یک مدل SVM را پیدا کنم (منظورم C، گاما و غیره است). اسناد Libsvm (و بسیاری از کتابهای دیگری که خواندهام) استفاده از جستجوی شبکهای را برای یافتن این پارامترها پیشنهاد میکند - بنابراین من اساساً مدل را برای هر ترکیبی از این پارامترها از مجموعه خاصی آموزش میدهم و بهترین مدل را انتخاب میکنم. آیا راه بهتری برای یافتن فراپارامترهای بهینه (یا نزدیک به بهینه) وجود دارد؟ برای من عمدتاً موضوع زمان محاسبه است - یک جستجوی شبکه ای این مشکل حدود دو ساعت طول می کشد (بعد از اینکه برخی بهینه سازی ها را انجام دادم). مزایای جستجوی شبکه: * می توان آن را به راحتی موازی کرد - اگر 20 CPU دارید 20 برابر سریعتر کار می کند، موازی سازی روش های دیگر سخت تر است * بخش های بزرگی از فضای فراپارامتر را بررسی می کنید، بنابراین اگر راه حل خوبی وجود داشته باشد، آن را پیدا خواهید کرد. | روش سریع برای یافتن بهترین متاپارامترهای SVM (که سریعتر از جستجوی شبکه ای است) |
66509 | من یک مجموعه داده با دو مجموعه از متغیرها دارم که هر نمونه را تعریف می کنند. من در حال انجام همبستگی های زوجی بین هر متغیر در مجموعه اول با هر متغیر در مجموعه دوم هستم. من اساساً نمونه $n$ دارم. برای هر نمونه، دو مجموعه از متغیرهای $[a_1، ...، a_{m1}]$ و $[b_1، ...، b_{m2}]$ دارم که آن نمونه خاص را تعریف میکنند. همبستگی همه متغیرهای $a$ با متغیرهای $b$ یک ماتریس همبستگی نهایی به اندازه $m_1 \times m_2$ به من می دهد. علاوه بر این، ممکن است برخی از متغیرهای مجموعه $a$ با یکدیگر و برخی از متغیرهای مجموعه $b$ نیز با یکدیگر همبستگی داشته باشند، اما من آن همبستگی ها را ارزیابی نمی کنم. من سعی می کنم بفهمم: 1. اگر برای مقایسه های متعدد نیاز به اصلاح دارم، و 2. اگر انجام می دهم، از چه روشی باید استفاده کنم. من Bonferroni را امتحان کرده ام، اما با تعداد زیادی از مقایسه ها، مقدار p تنظیم شده بسیار کوچکی دریافت می کنم. | همبستگی های زوجی -- تصحیح مقایسه چندگانه |
97930 | ما در حال انجام یک تجزیه و تحلیل طولی بر روی ویژگی های مختلف (متغیرها) یک موضوع واحد تجزیه و تحلیل هستیم. هدف ما انجام هیچ گونه پیش بینی نیست، بلکه تجزیه و تحلیل همبستگی بین این متغیرهای مختلف است. هیچ داده ای وجود ندارد و همه متغیرها تضمین می شوند که در یک زمان معین دارای یک مقدار باشند. سؤال من این است: آیا باید به اندازهگیری همبستگی با نادیده گرفتن زمان (زیرا هیچ پیشبینی برای مطالعه مورد نیاز نیست)، مدلسازی مقادیر دو متغیر در یک نقطه زمانی معین بهعنوان یک مشاهده (نقطه) صرف در نمودار پراکندگی، پایبند باشم، یا باید این کار را انجام دهم. استفاده از همبستگی متقابل با استفاده از سری زمانی؟ با احترام | ضریب همبستگی در داده های طولی |
59038 | من لیستی از 25 آلاینده هوا دارم که بسیاری از آنها به شدت با هم مرتبط هستند. من امیدوار بودم که به لیست کوتاهی از بردارهای ویژه که هرکدام از تعداد کمی از آلاینده ها تشکیل می شود، کاهش دهم. من تا الان بیشتر این ویدیوی آموزشی رو دنبال کردم. وقتی چرخش varimax را روی همه رایانههای شخصی امتحان کردم (همانطور که به نظر میرسد در پایان این ویدیو انجام میشود) هر یک از 25 PCa را با امتیاز 1 یا -1 برای تنها یک متغیر دریافت میکنم، با هر متغیری که به حساب میآید، یعنی. همه رایانههای شخصی و متغیرها توسط جفتهای منحصربهفرد به حساب میآیند. آیا من کار اشتباهی انجام داده ام یا اگر نه، پس چرا مثال موجود در ویدیو نیز همین کار را نمی کند؟ آیا ممکن است با داده های من که ابعاد بسیار بیشتری دارند، ارتباط داشته باشد؟ بسته به معیارهای انتخاب (معیار کایزر؛ تسطیح کردن طرح صفحه) 7 یا 13 برتر مهم هستند. قرار دادن فقط این 7 یا 13 جزء، خروجی بیشتری را ارائه می دهد که انتظار داشتم. آیا کسی پیشنهادی دارد که کدام یک از این گزینه ها (7 یا 13 جزء) را انتخاب کنم یا این یک تصمیم نسبتاً دلخواه بر اساس میزان فشرده سازی داده ها است؟ | چرخش varimax باید روی چند رایانه شخصی اعمال شود؟ |
111540 | من دو مجموعه داده دارم که ساختار آنها به این صورت است: ** مجموعه داده 1: ** ماهانه_سال فروش [1،] ژانویه 2000 30000 [2،] فوریه 2000 12364 [3،] مارس 2000 37485 [4،] آوریل 2000 2000 [5،] ژوئن 2000 7573 . . . . . . ** مجموعه داده 2: ** سود ماه_سال [1،] ژانويه 2000 84737476 [2،] ژانويه 2000 39450334 [3،] ژانويه 2000 48384943 [4،] فوريه 2000 12345678 [5،] فوریه 2000 49595340 [6،] Jan 2001 36769493 . . . . . . همانطور که مشاهده می شود **مجموعه داده اول یک مقدار فروش برای هر ماه از هر سال دارد، در حالی که در مجموعه داده دوم من تعداد مقادیری برای هر ماه از سال ندارم (مثلاً 100 عدد اما همیشه ثابت نیست). .** اکنون می خواهم **یک مدل پیش بینی** ایجاد کنم که می تواند **پیش بینی سود برای ماه های آینده** را ارائه دهد. بهترین رویکرد برای توسعه چنین مدل پیشگویی چیست؟ من آنلاین جستجو کردم و متوجه شدم که می توانیم **یک مدل رگرسیون** یا همبستگی **برازش** را تشکیل دهیم و بر اساس آن بتوانیم پیش بینی انجام دهیم. کدام راه بهتر است - رگرسیون یا همبستگی؟ و **چگونه یک رگرسیون مناسب برای چنین مجموعه های داده ای تشکیل دهیم** که در آن یک مجموعه داده دارای چندین نقطه داده برای هر ماه از هر سال است در حالی که دیگری دارای یک نقطه داده واحد برای هر ماه از هر سال است؟ **توجه:** نمیدانم رویکرد درستی است یا نه، اما آیا میتوانیم مقدار رگرسیون/همبستگی را برای ماههای ژانویه، فوریه، مارس... و غیره و سپس بر اساس فروش بدست آوریم. ارزش ما می توانیم پیش بینی سود را به طور کلی انجام دهیم. من در این امر تازه کار هستم و از این رو می توانم مفاهیم خاصی را روشن و واضح نداشته باشم و بنابراین برای این موضوع راهنمایی بخواهم. | چگونه یک مدل پیش بینی در R تشکیل دهیم؟ |
97934 | من یک متغیر پیوسته X دارم که با یک نتیجه پیوسته Y و یک نتیجه دوگانه Z مرتبط است. متوجه شوید که ضریب بین X و Y بسیار بیشتر از ضریب بین X و Z است، آیا می توانم بگویم ارتباط بین X و Y بسیار قوی تر از ارتباط بین X و Z است یا ضرایب غیر قابل مقایسه؟ اگر نه، آیا راه معقولی برای مقایسه ارتباط دو جفت (X و Y و X و Z) وجود دارد؟ | مقایسه ضرایب همبستگی نقطه-دوسری و خطی |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.