_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
---|---|---|
52819 | من چهار گروه سنی دارم که همگی قدهای متفاوتی را اندازهگیری میکنند: چگونه میتوانم تفاوت بین گروهها را در سطح معناداری 01/0 آزمایش کنم؟ آیا از ANOVA استفاده کنم؟ همچنین - چگونه می توانم مشخص کنم که کدام گروه با سایرین در سطح معناداری 0.01 متفاوت است؟ | آزمایش تفاوت ها، آیا از ANOVA استفاده می کنم؟ |
55621 | من یک شش گروه=[1:6] ACTid دارم و یک متغیر پیوسته در نتیجه مشاهده شده برای هر یک از اعضا گروه است: Y ACTid(1:10) Y(1:10،:) ans = 3.0000 36.8791 2.0000 71.5823 6.0000 104. 3.0000 33.4862 1.0000 1.5298 5.0000 0.1063 6.0000 157.3075 4.0000 11.4117 2.0000 3.8024 1.0000 52.3496 بهترین راه برای بررسی متغیر پیوسته چیست؟ متغیر Continuous از این مدل مشتق شده است: **UPDATE** مدل من به شکل ضربی زیر است: > اجازه دهید نمادگذاری را با اجازه دادن به تعداد واحدهای میکروب (cfu) که توسط دست پرستار > جمع آوری می شود، ساده کنیم، $Y$ نامیده شود. . **ACTid** **n** را در $i=1:n > $ > > \begin{equation} Y_{i}=\displaystyle \lambda_i V_i A_i-\beta_iY_{i-1} > \end را تعیین میکند {equation} > > جایی که مقادیر از طریق نمونه برداری مونت کارلو برای هر اجرا نمونه برداری می شوند: > $h=lognormal~(1.5,0.1)$، $\lambda=\Gamma(15,3)$, $\beta=$تجربی غیر- > منفی. $A=lognormal~(7,1.9)$ و $V=$غیر تجربی. انتخاب > از این پارامترها بیشتر به نوع مراقبت بستگی دارد $ACTid=1:6$; | Matlab یا R: رابطه بین متغیر طبقه ای و پیوسته |
50418 | من در تجزیه و تحلیل مجموعه دادههای آزمایش زیر کمی مشکل دارم: ما 4 تیمار (کنترل، غلظت1، conc2، conc3) را برای هر 5 گیاه برای مجموع 20 گیاه اعمال کردیم. ما آزمایش را 3 بار به طور مستقل تکرار کردیم ('block'). وقتی دادهها را تجسم کردم، دیدم که تنوع مهمی بین بلوک روی متغیر پاسخ وجود دارد، بنابراین تصمیم گرفتم اثر بلوک را بهصورت زیر کنترل کنم: mymodel <- aov(y ~ درمان + خطا(block)، داده = mydata) اما مطمئن نیستم که این همان کاری است که می خواهم انجام دهم. تفاوت بین موارد فوق چیست و: mymodel <- aov(y ~ درمان + خطا (درمان / بلوک)، داده = mydata) mymodel <- aov(y ~ درمان + درمان / بلوک، داده = mydata) و کدام است مناسب ترین برای تحلیل من؟ من بخش مدل افکت تودرتو را در کتاب R خواندم، اما به من کمک نکرد. هر گونه کمکی پذیرفته می شود. پیشاپیش متشکرم EDIT: ما در مجموع 60 کارخانه داشتیم، 20 تا برای هر بلوک | اثر تو در تو در مقابل تصادفی |
22679 | من 13 واحد مستقل مشابه دارم و باید احتمال حداقل 6 تای آنها را برای زنده ماندن برای زمانی کمتر از 1.10 محاسبه کنم. از جدولی با تخمینهای کاپلان-میر، موارد زیر را دریافت میکنم. زمان 1.05614، 1.31581 عدد در معرض خطر 19، 18 عدد شکست خورده 1،1 بقا پروب. 0.474771 , 0.448395 من مقادیر قبلی و بعدی را حذف کرده ام زیرا Time=1.10 بین این دو مقدار است و P(T<1.10)=F(1.10)=F(1.05614)=1-Survival prob.=1- 0.474771= 0.525229` که احتمال آن است 1 واحد برای زنده ماندن کمتر از 1.10 ساعت؟ من نمی دانم از آن نقطه ادامه دهم. | محاسبه احتمال در تحلیل بقا |
12839 | من میخواهم یک متاآنالیز با دادههای شمارش برای موارد درمان/کنترل (فراوانی پولیچاتوس دریایی) انجام دهم. مشکل من این است که باید از مقادیر صفر (مقدار صفر اطلاعاتی) برای میانگین و انحراف معیار برای یکی از درمانها استفاده کنم، اما R یک مشکل دارد: مطالعات با مقادیر صفر برای sd.e یا sd.c وزن ندارند. در متاآنالیز». من می توانم پرونده را بر اساس خانواده ('byvar=Family') دسته بندی کنم. گزینهای در «متابین» وجود دارد که میتوانید برای مطالعات با تعداد سلولهای صفر، یک مقدار عددی به فرکانس هر سلول اضافه کنید یا رشته کاراکتری «TA» که مخفف تصحیح تداوم بازوی درمان است، اما من میخواهم از «متاکانت» استفاده کنم. که این گزینه را ندارند. می توانید به من کمک کنید؟ با تشکر > datos<-read.table(file=datos_totales.csv,head=TRUE,sep=,,dec=,) > datos[10:20,] مطالعه ControlN ControlMean ControlSD TreatedN TreatedMean TreatedSD خانواده 10 علی .Gmb.S1.Inv 3 893.3333 180.36999 3 1213.33333 410.52812 Capitellidae 11 Ali.Gmb.S2.Inv 3 640.0000 348.71192 3 666.66667 220.30282 Capitellidae 12 Ali.Gmb.6636 184.75209 3 920.00000 628.64935 Capitellidae 13 Ali.Cul.S1.Ver 3 213.3333 115.47005 3 0.00000 0.00000 0.00000 Cirratulidae .VS4 Ali.VC. 160.0000 144.22205 3 40.00000 40.00000 Cirratulidae 15 Ali.Cul.S3.Ver 3 293.3333 234.37861 3 26.66667 421eul.18. 3 653.3333 532.66625 3 13.33333 23.09401 Cirratulidae 17 Ali.Cul.S2.Inv 3 706.6667 335.45988 3 26.66667 23.66667 23.666694018. Ali.Cul.S3.In 3 666.6667 674.48746 3 80.00000 80.00000 Cirratulidae 19 Ali.Gmb.S1.Vr 3 280.0000 69.28203 3 000.0000000.000. Ali.Gmb.S2.Ver 3 226.6667 220.30282 3 0.00000 0.00000 Cirratulidae > library(meta) > metaanalisis2<- metacont(TreatedN,TreatedMean,TreatedSD,ControlN,ControlN,Datavar=to,ControlN,ControlN, Control=to, label.c=Control, print.byvar=FALSE, label.e=Treatment, studlab=Study) **Mensajes de aviso perdidos In metacont(TreatedN, TreatedMean, TreatedSD, ControlN, ControlMean, : مطالعات با مقادیر صفر برای sd.e یا sd.c هیچ وزنی در متاآنالیز دریافت نمی کنید** | متاآنالیز با مقادیر صفر برای میانگین و sd |
92268 | تصویر زیر نمونه ای از جدول نتیجه یک همبستگی شرطی پویا ('dcc') مدل GARCH چند متغیره است. من نمی توانم بفهمم اعداد همبستگی چگونه محاسبه می شوند. از آنچه که من درک می کنم، مدل «dcc garch» مجموعه ای از همبستگی ها از واریانس ها را در طول زمان به شما ارائه می دهد. بنابراین، سوالات من این است: 1. همبستگی های ارائه شده در جدول به چه معناست؟ آیا میانگین همبستگی های پویا است؟ 2. من نتیجه خود را از سری همبستگی های شرطی پویا دو معادله ایجاد کرده ام. چگونه آنها را در جدولی که در جدولی در Stata نشان می دهد برای مدل گارچ همبستگی شرطی پویا گزارش می کنید؟ آیا من درست می گویم که فقط بین دو سری همبستگی یک آزمون t می گیریم؟  | همبستگی شرطی پویا در جدول Stata گزارش شده است |
26568 | من می خواهم بدانم چگونه می توان _فاصله های پیش بینی_ را برای تخمین های رگرسیون لجستیک ایجاد کرد. به من توصیه شد که رویه های موجود در Collett's _Modelling Binary Data_، ویرایش دوم ص.98-99 را دنبال کنم. پس از اجرای این رویه و مقایسه آن با «predict.glm» R، در واقع فکر میکنم این کتاب روش محاسبه فاصلههای اطمینان را نشان میدهد، نه فواصل پیشبینی. اجرای رویه از Collett، با مقایسه با 'predict.glm'، در زیر نشان داده شده است. میخواهم بدانم: چگونه میتوانم از اینجا به جای فاصله اطمینان، یک بازه پیشبینی تولید کنم؟ #برگرفته از Collett 'Modelling Binary Data' 2nd Edition p.98-99 #نیاز به اعداد تصادفی قابل تکرار است. seed <- 67 num.students <- 1000 which.student <- 1 #تولید قاب داده با داده های ساخته شده از دانش آموزان: set.seed(seed) #reset seed v1 <- rbinom(num.students,1,0.7) v2 <- rnorm(طول(v1)،0.7،0.3) v3 <- rpois(length(v1),1) #ایجاد df به نمایندگی از دانش آموزان <- data.frame( intercept = rep(1,length(v1)), outcome = v1, score1 = v2, score2 = v3 ) print(head(students )) predict.and.append <- function(input){ #ایجاد یک مدل لجستیک وانیلی به عنوان تابعی از داده های score1 و score2.model <- glm (نتیجه ~ score1 + score2، داده = ورودی، خانواده = دوجمله ای) #محاسبه پیش بینی ها و SE.fit با روش داخلی بسته R # اینها به صورت logits هستند. پیشبینیها <- as.data.frame(predict(data.model، se.fit=TRUE، type='link')) پیشبینیها$واقعی <- ورودی$نتیجه پیشبینیها$پایین <- plogis(predictions$fit - 1.96 * پیشبینیها $se.fit) predictions$prediction <- plogis(predictions$fit) predictions$upper <- plogis(predictions$fit + 1.96 * predictions$se.fit) return (list(data.model, predictions)) } خروجی <- predict.and.append(students) data.model <- output[[1]] #summary (data.model) #Export vcov matrix model.vcov <- vcov(data.model) # اکنون هدف ما این است که بازتولید «پیشبینیها» و se.fit به صورت دستی با استفاده از ماتریس vcov this.student.predictors <- as.matrix(students[which.student,c(1,3,4)]) #Prediction: this.student.prediction < - sum(this.student.predictors * coef(data.model)) square.student <- t(this.student.predictors) %*% this.student.predictors se.student <- sqrt(sum(model.vcov * square.student)) manual.prediction <- data.frame(lower = plogis(this.student .prediction - 1.96*se.student), prediction = plogis(this.student.prediction), upper = plogis(this.student.prediction + 1.96*se.student)) print(پیش نمایش داده ها:) print(head(students)) print(paste(تخمین نقطه ای از احتمال نتیجه برای دانش آموز، which.student, (2.5٪، پیش بینی امتیاز، 97.5٪) با روش کولت:)) manual.prediction print(paste(تخمین نقطه ای از احتمال نتیجه برای دانشآموز، which.student,(2.5%, پیشبینی نقطه، 97.5%) توسط R's predict.glm:)) print(output[[2]][which.student,c('lower',' پیشبینی، «بالا»)]) | محاسبه فواصل پیش بینی برای رگرسیون لجستیک |
60907 | فرض کنید می گوییم نرخ شیوع برخی بیماری ها 1 دلار در 50 دلار است. آیا این منطقی است؟ یا باید این را به $ \%$ تبدیل کرد؟ یعنی باید بگوییم که میزان شیوع 2$ \%$ است؟ | راه مناسبی برای ارائه میزان شیوع چیست؟ |
66500 | من در حال ساخت مدلی برای پیش بینی وزن یک گونه حشره با مجموعه ای از متغیرهای دیگر هستم. نمودار زیر عملکرد مدل من را با استفاده از مجموعه ای از داده های آزمایشی نشان می دهد که در آن وزن واقعی حشرات مشخص است. محور x وزن واقعی حشره و مقدار y خطای مدل من است—مقدار مطلق وزن پیشبینیشده - وزن واقعی:  از این تصویر می بینید که من حشرات زیادی با وزن نسبتا کم دارم. در این موارد، مدل من خطای پیشبینی نسبتاً کمتری دارد. در مقابل، من حشرات نسبتا کمی دارم که سنگین هستند و خطای مرتبط با این پیشبینیها واریانس بسیار بیشتر همراه با خطای بالاتر را نشان میدهد. با توجه به این مدل و داده های آزمون، من می خواهم راهی برای ایجاد فاصله های اطمینان برای پیش بینی های جدید پیدا کنم. برای مثال، اگر مدل من پیشبینی کند که یک حشره نسبتاً سنگین است، فواصل اطمینان حول این پیشبینی زیاد خواهد بود. سوال من این است که چگونه می توانم این کار را انجام دهم؟ یک مدل خطی برای این داده ها نامناسب به نظر می رسد زیرا بیشتر نقاط در نزدیکی مبدا خوشه بندی شده اند. من از اینکه چگونه می توانم فواصل اطمینان را برای پیش بینی هایم بسازم دچار مشکل هستم. | ساخت فواصل اطمینان برای مدل پیش بینی |
71591 | من یک آزمایش $(0,1)$ دارم که $1$ با احتمال $p$ و $0$ با احتمال $1-p$ برمی گرداند. فرض کنید $X_i$ متغیر تصادفی باشد که نتیجه تکرار $i$ آزمایش را توصیف می کند. من به مقدار $Y_t=\sum_{i=0}^t X_i$ علاقه مند هستم، که تعداد موفقیت ها را از ابتدای دنباله محاسبه می کند. به محض اینکه $Y_t \geq (p+\delta) \cdot t$ (با $0 < \delta < 1-p$) تکمیل شد، بهمحض اینکه نسبت بین $0$ و $1$ بیش از آستانه $ باشد، این دنباله پایان مییابد. p+\delta$. به طور کاملاً شهودی مجموع به $Y_t = p\cdot t$ (مقدار مورد انتظار) همگرا می شود، اما احتمال رسیدن به $Y_t = (p+\delta)\cdot t$ غیر صفر است و در یک اجرا بی نهایت به دست خواهد آمد. سوال این است که چه زمانی به آن می رسد؟ برای این دو مقدار جالب وجود دارد که میخواهم محاسبه کنم: احتمال آخرین مرحله $t \rightarrow t+1$، یعنی $Pr[Y_{t+1} \geq (p+\delta) \ cdot (t+1)|Y_t < (p+\delta) \cdot t]$ و زمان مورد انتظار تا پایان دنباله، $\mathrm{E}[\text{steps}]$. | مرزهای تمرکز در یک دنباله از (0،1) - آزمایش |
27615 | سلام من مشکل زیر را دارم: من قصد دارم یک رگرسیون لجستیک روی داده های ترافیک وب انجام دهم. یکی از ویژگی های من تعداد روزهای پس از آخرین بازدید است (عددی را با R تایپ کنید). اکنون بسیاری از بازدیدکنندگان اولین بار هستند و من هیچ داده ای برای این ویژگی ندارم. آیا باید آنها را به عنوان NA کد کنم یا کدگذاری آنها به عنوان 0 معتبر است؟ از همه شما متشکرم | رگرسیون لجستیک: آیا کد NA به عنوان 0 معتبر است؟ |
107896 | من دادههای زیر را دارم: 20 شرکتکننده، که هر کدام 2 نوع درمان (A & B) را در 3 جلسه (زمان) مختلف انجام میدهند. برای هر جلسه درمانی، من 6 اندازه گیری عادی را جمع آوری می کنم که فقط یک مقدار در هر جلسه دارد. علاوه بر این، برای هر جلسه درمانی، 2 تست مختلف با مقادیر پیش و پس از آن دارم که به تفاوت بین مقادیر قبل و بعد علاقه مندم. من میخواهم بررسی کنم که کدام یک از معیارها یا تفاوتهای آزمایشی هنگام دریافت درمان A در مقایسه با درمان B متفاوت است. به عنوان مثال جدول (دادههای کامل دارای اندازهگیری 1..6 هستند): | شماره شرکت کننده | درمان | جلسه | اندازه 1 | اندازه 2 | Test1_pre | Test1_post | Test2_pre | Test2_post | |--------------------|-----------|---------|------ ----|----------|-----------|-----------|--------- --|------------| | 1 | A | 1 | | | | | | | | 1 | A | 2 | | | | | | | | 1 | A | 3 | | | | | | | | 1 | ب | 1 | | | | | | | | 1 | B | 2 | | | | | | | | 1 | ب | 3 | | | | | | | و غیره برای هر شرکت کننده این اولین باری است که از SPSS استفاده می کنم و سعی می کنم بفهمم که چگونه چنین تحلیلی را انجام دهم. تا کنون، من موفق شده ام از تجزیه و تحلیل اندازه گیری های مکرر استفاده کنم، فاکتورهای درمان و جلسه و همه اندازه گیری ها را تعریف کنم، اما هنوز نمی توانم درک کنم که چگونه مقادیر قبل از آزمون را به گونه ای تنظیم کنم که تفاوت بین مقادیر قبل و بعد برای هر آزمایش وجود داشته باشد. در نظر گرفته شده است. به نظر من مقادیر پیش باید به عنوان متغیرهای کمکی تعریف شوند، اما نمی توانم راهی برای اتصال هر پیش ارزش به مقدار پست صحیح خود ببینم. من میتوانم یک ستون جدید در دادههایم با تفاوت محاسبهشده برای هر آزمون قرار دهم، اما فهمیدم که این کمتر توصیه میشود زیرا مقادیر واقعی آزمایشها را نادیده میگیرد. من از هر گونه کمک یا راهنمایی قدردانی می کنم. خیلی ممنون! | SPSS اقدامات مکرر با اقدامات مختلف قبل از بعد |
26567 | این ممکن است یک سوال لنگ باشد، اما من گیر کردم و نمی توانم سرم را درگیر آن کنم. من در حال انجام یک تجزیه و تحلیل بیان ژن هستم، با مقایسه ژنهای $\sim 10000$ بین دو گروه، $n=6$ نمونه در هر گروه. خط لوله من به این صورت است: 1. من بررسی می کنم که آیا دو گروه دارای واریانس مساوی با استفاده از تست Levene برای هر ژن هستند یا خیر. 2. برای آن دسته از ژن هایی که دارای واریانس های مساوی هستند، من یک آزمون t تعدیل شده (مانند limma) را انجام می دهم، زیرا واریانس های مساوی را فرض می کند. 3. برای بقیه ژن هایی که من Mann-Whitney U. را اجرا می کنم (قبل از اینکه در مورد تصحیح آزمایش چندگانه به من بگویید، بعداً با تغییر برچسب های جمعیت روی نمونه ها و اجرای مجدد آزمایش های بالا، FDR را محاسبه می کنم). اکنون، من می خواهم اندازه اثر را برای همه ژن ها محاسبه کنم. من از d کوهن با واریانس ادغام شده استفاده می کنم (به ویکی پدیا مراجعه کنید)، اما نمی دانم که آیا می توانم این کار را برای هر دو گروه ژن (یعنی ژن هایی با و بدون واریانس برابر بین گروه ها) انجام دهم. فکر میکنم نمیتوانم، اما واقعاً یک حدس است (فکر میکنم فقط میتوانم آن را برای ژنهای واریانس برابر اجرا کنم). اگر نمی توانم، آیا راه مناسب تری برای انجام این کار وجود دارد؟ | آیا واریانس ادغام شده هنگام محاسبه اندازه اثر، برای واریانس نابرابر محافظت می کند؟ |
26562 | من یک نمودار دارم و دو نقطه وجود دارد که می تواند دو نقطه پرت بالقوه باشد. من سعی می کنم یک خط چند جمله ای با بهترین تناسب با نظم تعریف نشده ایجاد کنم. من معتقدم که میتوانم از قانون حذف انحراف استاندارد > 2 استفاده کنم، اما مطمئن هستم که دقیقاً چگونه این قانون اعمال میشود. آیا در ابتدا با استفاده از تمام نقاط، انحراف معیار واجد شرایط را تعیین می کنم؟ این کاری بود که من انجام دادم، اما دو امتیاز دارم که واجد شرایط محرومیت است. آیا هر دو را یکجا حذف کنم یا یکی یکی؟ اگر فقط یکی را با بیشترین انحراف از خط بهترین تناسب حذف کنم، میتوانم خط را دوباره محاسبه کنم و خط جدیدی از بهترین برازش با ترتیب چند جملهای جدید به من میدهد. اگر از این تناسب جدید استفاده شود، نقطه دیگری که قبلاً نقطه پرت بود، دیگر نقطه پرت نیست. روش صحیح چیست؟ | یک روش ریاضی برای تعریف نقطه در نمودار پراکندگی به عنوان نقطه پرت چیست؟ |
55629 | بگویید من یک متغیر مستقل با رابطه زیر با متغیر وابسته باینری، DV دارم: _________________________________________________________________________________ |verx_s | # Recs | % Recs | # DV | DV Rt | |________________________________|_________|_____________|_________|________| | 0 | 75700| 6.4467%| 941| 1.243٪ | |1 | 277,129| 23.6009%| 1,471| .5308% | |2 | 51,662| 4.3996%| 219| .4239% | |3 | 769,737| 65.5526%| 2,269| .2948% | |همه |1,174,228| 100.0000%| 4900| .4173% | |________________________________|_________|_____________|_________|________| در شرکت من، کدگذاری مجدد مقادیر verx_s به مقدار DV Rt و در نظر گرفتن آن به عنوان یک متغیر پیوسته هنگام مدلسازی رگرسیون لجستیک، معمول است. فواصل اطمینان مهم نیست. تنها چیزی که ما به آن اهمیت میدهیم این است که آیا اعتبار مدل در نمونهای خارج از زمان انجام میشود یا خیر. آیا استفاده از این میانبر ذاتاً اشکالی دارد؟ همچنین لازم به ذکر است که در اکثر موارد متغیر مستقل به گونه ای ساخته شده است که برای مشتریان ما حس شهودی ایجاد کند. بنابراین _ترتیب_ میانگین هدف مهم است. از این رو، چرا ما نمی توانیم از vars های ساختگی ساده استفاده کنیم. | مزایا/معایب رمزگذاری مجدد متغیرهای ترتیبی/اسمی برای هدف گذاری میانگین برای رگرسیون لجستیک؟ |
60902 | چگونه می توانم احتمال ورود یا مقدار احتمال را از الگوریتم فوروارد برای یک دنباله مشاهده شده دریافت کنم؟ به عنوان مثال، زمانی که من الگوریتم رو به جلو را در «R» روی دنباله ای به طول 3 برای یک مدل مارکوف پنهان آموزش دیده از 3 حالت اجرا کردم، مقادیر احتمال هر نماد مشاهده شده در هر حالت را به من داد: $$ \begin{matrix} ~ &O1 & O2 & O3 \\\ S1 & -143.2 & -500.0 & -231.5 \\\ S2 & -212.2 & -231.4 & -200.0 \\\ S3 & -112.4 & -115.6 & -118.5 \end{matrix} $$ در ماتریس فوق، سطرها حالتها هستند و ستونها نمادهای مشاهده شده هستند. حال چگونه می توانم مقدار احتمال log نهایی را از این ماتریس محاسبه کنم؟ | چگونه احتمال log در HMM را از خروجی الگوریتم فوروارد در R محاسبه کنیم؟ |
88396 | من به طور مبهمی با نمودارهای احتمال عادی آشنا هستم (غیر آماری که به اندازه کافی می داند تا بتواند از پس آن بربیاید). نمودار این مقاله: دو منحنی نقطه چین نامیده می شوند و نشان دهنده چیست و چگونه محاسبه می شوند؟  **ویرایش:** سوال من مستقل از نرم افزار است. من فقط می خواهم بدانم باندهای جانبی مورد استفاده در یک نمودار احتمال معمولی معمولی چه نامیده می شوند و چگونه تعریف می شوند. * * * پاسخ خوبی ندارم اما پس از چاقو زدن در تاریکی در گوگل، بالاخره این یادداشت های سخنرانی را در مورد نمودارهای چندک پیدا کردم: https://www.stat.auckland.ac.nz/~ihaka/787 /lectures-quantiles2-handouts.pdf | اصطلاحات مورد استفاده در نمودارهای احتمال عادی |
111547 | (من سوال زیر مکالمه با @whuber را در نظرات به روز کردم). مورد من به شرح زیر است: من حدود هزار بردار ردیفی با ابعاد $1 \ برابر 8 $ دارم. این بردارهای ردیف با اعداد شناخته شده و غیر منفی پر شده اند (همگی اعداد گویا هستند) که می توانند صفر نیز باشند. در برخی موقعیت ها، متغیرهای $0/1$ دارم، اما نه در همه. در اصل، آنها ممکن است بردارهای یکسانی داشته باشند. از طریق تئوری به حداکثر رساندن سودمندی، هر بردار ردیف به پروفایل مربوطه از اولویت ها (با ابعاد 8 دلار) مرتبط می شود. هر موقعیت در بردار نمایانگر جنبهای قابل مشاهده از یک ویژگی محصول است که با قیمت فروش محصول ترکیب شده است، و موقعیت مربوطه در بردار ترجیحات نشاندهنده اثر مطلوبیت/قیمت لذتبخش این ویژگی است. کاری که من باید انجام دهم این است که به نحوی این بردارها را گروه بندی کنم تا نمایه های ترجیحی بسیار کمتر از هزار را نشان دهند. سپس میتوانم هر زیر گروه را بهعنوان مجموعهای از تحققها از همان بردار تصادفی چند متغیره در نظر بگیرم و به توصیف توزیعها ادامه دهم. به بیان دقیق، اگر دو بردار حتی در یکی از هشت موقعیت، و حتی در کوچکترین تفاوت با هم متفاوت باشند، نمایانگر پروفایل ترجیحات متفاوتی هستند. اما من حاضرم بپذیرم که برای هر موقعیت، یک پروفایل ترجیحی میتواند طیفی از مقادیر را تولید کند. یعنی قبول دارم که «منحنیهای بیتفاوتی ضخیم هستند» که در «اقتصاد» میگوییم، یا ترجیحات یک مقدار تصادفی دارند. از آنچه من فهمیدم این همان چیزی است که ما آن را خوشه بندی داده می نامیم، و روش های مختلفی برای انجام این کار وجود دارد، اما این قلمرو جدید برای من است، بنابراین به من اعتماد ندارم که در پست های CV قبلی جستجو کنم. این به تحقیق مربوط می شود، بنابراین لطفاً با آن مانند تکلیف رفتار کنید: نام روش ها و برخی ادبیات برای شروع من واقعاً کافی است. اگر اطلاعات اضافی لازم است، لطفا بپرسید. | چگونه می توان در مورد خوشه بندی داده ها اقدام کرد؟ |
22 | چگونه به انگلیسی ساده ویژگی هایی را که استدلال بیزی را از استدلال متداول متمایز می کند، توصیف می کنید؟ | استدلال بیزی و مکرر به زبان انگلیسی ساده |
15556 | آیا کسی می تواند توضیح دهد که چگونه مدل های پنهان مارکوف با حداکثر کردن انتظارات مرتبط هستند؟ من لینک های زیادی را مرور کردم اما نتوانستم به یک نمای واضح برسم. با تشکر | مدلهای پنهان مارکوف و الگوریتم به حداکثر رساندن انتظارات |
50417 | امیدوارم این مشکلی که در دست دارم را به وضوح بیان کند. در اینجا آمده است: من یک شبکه عصبی را با یک مجموعه داده اولیه که به منظور تضمین مشارکت برابر هر متغیر در فرآیند یادگیری نرمال سازی شده بود، آموزش دادم. هنگامی که شبکه عصبی آموزش داده شد، مجموعههای جدیدی از دادهها را خواهم داشت که طبقهبندی میشوند. Q1: چگونه باید از نظر عادی سازی یک مجموعه داده جدید اقدام کنم؟ آیا شانسی وجود دارد که میانگین و انحراف استاندارد متفاوت این مجموعه داده جدید را به طور قابل توجهی با مجموعه ای که من در ابتدا برای آموزش طبقه بندی کننده خود استفاده کردم متفاوت کند؟ آیا این می تواند نتایج اشتباهی ایجاد کند؟ (البته من در نظر دارم که نمونه های درآمد جدید از همان منبع مجموعه آموزشی اصلی باشد). Q2: آیا اگر به جای طبقه بندی، ابتدا مجموعه داده های آموزشی را خوشه بندی کنم و آنها نمونه های درآمدی جدید را (در خوشه ها/گروه هایی که توسط الگوریتم خوشه بندی من پیدا شده است) طبقه بندی کنند، باید همان روش عادی سازی را دنبال کنم؟ | نرمال سازی و طبقه بندی داده ها |
26561 | من در حال انجام یک تجزیه و تحلیل خوشه بندی در SAS هستم و برخی از متغیرهایی که سعی در خوشه بندی آنها را دارم حاوی مقادیر پرت هستند. من سعی کردم داده ها را تغییر دهم (ورود و/یا استانداردسازی آنها) اما کاملاً انجام نشد. بنابراین، برای مثال، فرض کنید من به 9 خوشه رسیدم، سپس یک یا دو خوشه فقط یک مقدار در آنها خواهند داشت. به دلیل ماهیت کار من، حذف موارد پرت اختیاری نیست. من میخواهم مجموعهای از مقادیر را به گروهها اختصاص دهم تا مقادیر موجود در خوشههای یکسان (به یک معنا) به یکدیگر شباهت بیشتری داشته باشند تا در خوشههای دیگر، اما اگر تعداد خوشهها را کاهش دهم و اساساً مقادیر پرت را ادغام کنم. گروه با گروه های دیگر من می ترسم که گروه ادغام شده همگن نباشد. بنابراین، برای جمعبندی سؤالاتم، چگونه میتوانم با مقادیر پرت برای تحلیل خوشهای برخورد کنم؟ پیشاپیش متشکرم | خوشه بندی متغیرها با مقادیر پرت |
88392 | فرض کنید من یک متغیر پاسخ (`y`) دارم که به طور معمول توزیع شده است، و y به طور کلی با x به روشی مانند توزیع نمایی تجمعی تغییر می کند، به این معنی که y ممکن است در نقطه عطفی به یک فلات برسد. از `x`، مانند آن: set.seed(123) df<-data.frame(y=pexp(x)+runif(length(x),0,0.2),x=1:901) df<-df[sample(1:300900,T)،] hist(df $y) نمودار (df$x,df$y,xlab=x,ylab=y)   سوال من این است که بهترین راه برای مدل این مرتب سازی داده ها؟ اسپلاین، چند جمله ای یا چیزهای دیگر؟ | چگونه دو متغیر را با یک رابطه نمایی تجمعی مدل کنیم؟ |
92886 | من 2 متغیر پواسون دارم، میانگین و استاندارد خطای هر کدام را می دانم. چگونه خطای استاندارد جمع را محاسبه می کنید؟ | خطای استاندارد مجموع دو متغیر پواسون |
92265 | در مسئله SVC، با توجه به تمام ضرایب ثابت (C، گاما، و غیره)، آیا می توان توابع تصمیم گیری و بردارهای مختلف را با استراتژی های بهینه سازی متفاوت بدست آورد؟ | آیا الگوریتم بردارهای پشتیبانی وابسته است؟ |
110493 | من رگرسیون لجستیک زیر را دارم: $$ \text{logit} (y) = \beta_0 + \beta_1\، x $$ که از آن می توانم احتمال بعدی زیر را (با استفاده از رویکرد بیزی) تخمین بزنم: $$ P(\beta_1 >0\,|\,\text{Data}). $$ آیا نام خاصی برای آن احتمال وجود دارد (چیزی مانند مقدار p یک طرفه بیزی)؟ | نام احتمال پسین بیزی که ضریب رگرسیون بزرگتر از صفر است |
22671 | ما داده هایی داریم که به شرح زیر نشان داده شده است: در هر ردیف 10 اثر قابل مشاهده و 3 علت غیر قابل مشاهده از 8 مورد وجود دارد که توسط محققان حدس زده شده است. تأثیرات اعداد واقعی هستند و علل مقوله های گسسته هستند. ما می خواهیم سیستمی را آموزش دهیم که اثرات مشاهده شده را بپذیرد و سه علت محتمل را حدس بزند. بنابراین چگونه می توان 3 از 8 علت را نشان داد و بهترین رویکرد و نحوه استفاده از چنین الگوریتم یادگیری چیست؟ ویرایش: قابل مشاهده ها ویژگی های ترک های یک سازه هستند. علل مواردی مانند بار، باد، دما هستند. نمونه نمونه مانند 1.2 2.3 45 6.7 5.5 12 3.4 1.1 5.6 2.3 بار دمای آب و هوا است اگر بتوانیم رتبه علل را تعیین کنیم. به عنوان مثال مهمتر از همه بار است، سپس آب و هوا و غیره. زیرا نمونه به این صورت جمع آوری می شود. | ارتباط یادگیری بین اثرات چندگانه و پیامدهای علی |
107895 | بنابراین من سؤالات متعددی در مورد انواع مختلف تحلیل هایی دارم که می توان در جدول احتمالی 2×2 استفاده کرد و اینکه چه زمانی باید از تحلیل های مختلف استفاده شود. برای باز کردن، متذکر میشوم که این از تلاشهای من برای یافتن تحلیلهای مناسب برای انجام تحقیقات با استفاده از دادههای طبقهبندی شده در جدول احتمالی ۲×۲ ناشی میشود. در مورد من دو شرط دارم: کنترل و آزمایش و در گروه آزمایشی دو مورد مورد علاقه (مثلاً مورد الف و مورد ب) وجود دارد. در همه موارد، من در حال بررسی این هستم که آیا یک نتیجه رخ می دهد یا خیر: چند شرکت کننده آزمایشی نتیجه را در مورد A نشان می دهند؟ چند شرکت کننده آزمایشی نتیجه مورد B را نشان می دهند؟ چند شرکت کننده در کنترل نتیجه را نشان می دهند؟ بنابراین علاوه بر مقایسه مورد A با گروه کنترل (A در مقابل C) و مورد B با گروه کنترل (B در مقابل C)، همچنین می خواهم مورد A را با آیتم B (A در مقابل B) مقایسه کنم. درک من این است که برای مقایسههای بین آزمودنیها (مانند A در مقابل C و B در مقابل C) به طور سنتی از آزمون پیرسون $\chi^{2}$ استفاده میشود و برای مقایسه درون آزمودنیها (مانند A در مقابل B) ) که آزمون مک نمار یک انتخاب رایج است. ** سوال 1: ** آیا این درک دقیقی از انتخاب های رایج برای آزمون های آماری با استفاده از جداول احتمالی 2x2 است؟ * * * سؤالات بعدی من، و جایی که بیشتر سردرگمی من نهفته است، مربوط به این است که وقتی تعداد سلول های مشاهده شده چندگانه کم است (کمتر از 10) چه باید کرد. من موضوعات متعددی را در اینجا کاوش کرده ام، صفحات ویکی پدیا را برای موضوعات مختلف (تصحیح یتس، دقیق فیشر، و غیره)، چند مقاله ژورنال، و توضیحات در بسته های R، اما دیدگاه های متناقضی پیدا کرده ام. برخی منابع نشان میدهند که باید از تصحیح یتس استفاده کنید، برخی دیگر میگویند که قدیمی است، زیرا علاوه بر محافظهکاری بیش از حد، تنها به این دلیل ترجیح داده میشد که گزینههای دیگر از نظر محاسباتی شدید بودند. دیگران می گویند که باید از تست دقیق فیشر استفاده کنید، اما من اطلاعات بیشتری را دیده ام که نشان می دهد تست دقیق فیشر تنها زمانی مناسب است که مجموع ردیف و ستون را بدانید و گزینه های دیگر (بوشلو، بارنارد و غیره) عموماً قوی تر هستند. . با این حال، استفاده از کدام یک نیز مشخص نیست. در نهایت، حتی دیگران پیشنهاد میکنند که تست $\chi^{2}$ پیرسون تا زمانی که تعداد سلولهای _مورد انتظار کم نباشد، مناسب است. من نشانه هایی دیده ام که این استدلال ها برای آزمون مک نمار نیز وجود دارد (به عنوان مثال، تصحیح تداوم و آزمون دقیق مک نمار). **سؤال 2:** آیا فرض در مورد تعداد سلول ها در مورد تعداد سلول های _منتظره_ است یا تعداد سلول های _مشاهده شده؟ اگر تعداد سلول های _مشاهده شده کم باشد، آیا این موضوع به نوع آزمایشی که باید استفاده شود اهمیت دارد؟ **سوال 3:** تست دقیق چیست و چه زمانی باید از تست های دقیق استفاده کرد؟ * * * علاوه بر پاسخ به این سؤالات، از هر گونه پیشنهادی در مورد کتاب ها یا مقالاتی که می توانم برای کسب اطلاعات بیشتر در مورد این موضوع بخوانم، بسیار سپاسگزارم. بخشی از مبارزه من با همه اینها فقط یافتن اطلاعات واضح در مورد این موضوعات و نحوه ارتباط آنها با یکدیگر دشوار است. | تجزیه و تحلیل مناسب برای جداول احتمالی 2x2 |
65268 | با توجه به رگرسیون لجستیک (دودویی) و یک IV طبقهبندی، اگر یک exp(b) داده شده 0.08 باشد و من از کدگذاری شاخص استفاده میکنم که دسته مرجع من برای متغیر State، مثلاً وایومینگ، چگونه .08 را تفسیر کنم؟ احتمالاً من 0.08 را با میانگین وایومینگ مقایسه می کنم (در اینجا میانگین تناسب یا تعداد نمونه های مثبت وایومینگ است)... بنابراین اگر وایومینگ = 0.06، آیا 0.08 * 0.06 را ضرب کنم. = 0.0048؟ به نظر درست نیست... | تفسیر exp(b) |
110490 | من در مورد مفهوم اعتبار سنجی متقاطع و استفاده از آن سردرگم هستم. همانطور که قبلاً در مورد اعتبارسنجی متقاطع خوانده بودم، این روشی برای اعتبارسنجی یک مدل است. من در پروژه خود اعتبار سنجی متقاطع انجام دادم (توسعه مدل های رگرسیون مختلف بر روی یک مجموعه داده، اعتبارسنجی مدل و در نهایت انتخاب بهترین مدل). اعتبار سنجی متقاطع فقط یک مدل به من می دهد اما هیچ معیار آماری که توانایی مدل را نشان دهد وجود ندارد. ضمناً هر بار که اعتبار متقاطع را اجرا می کنم (در برنامه R) نتیجه متفاوت است زیرا مجموعه داده قطار تغییر می کند. برای انتخاب بهترین مدل، من AIC را برای مدل به دست آمده توسط اعتبارسنجی متقاطع محاسبه می کنم، اما اکنون فکر می کنم اشتباه است. زیرا اولاً دادههای قطار مورد استفاده برای هر مدل متفاوت است و دوم اینکه حتی برای یک مدل خاص، AIC با تکرار اعتبارسنجی متقاطع تغییر میکند. اخیراً خواندم که از اعتبارسنجی متقاطع برای انتخاب بهترین مدل استفاده می شود! همه اینها من را در مورد سودمندی اعتبار متقاطع و نحوه تفسیر نتیجه گیج کردند. آیا می توانید به من کمک کنید تا همه اینها را بفهمم؟ | آیا اعتبار متقاطع برای اعتبارسنجی یک مدل است یا برای انتخاب بهترین مدل در انواع مختلف مدل ها؟ |
92884 | من سعی می کنم بفهمم که چگونه می توان از تخمین چگالی هسته (KDE) یا رگرسیون چندکی (ناپارامتریک) برای پیش بینی مقادیر با توجه به مشاهدات تاریخی استفاده کرد. برای مثال، مدل رگرسیون ناپارامتریک زیر را در نظر بگیرید $Y_t = g(X_t) + u_t$ که در آن $X_t = (Y_{t - 1}، \ldots، Y_{t - q})$. در معادله زیر (پیشبینی یک گام جلوتر) $\hat{Y}_{n + t,1} \equiv \hat{\text{E}}(Y_{n + t}|X_{n + t }) = \dfrac{\sum_{j = q + t}^{n + t - 1}Y_jK_h(X_j - X_{n + t})}{\sum_{j = q + t}^{n + t - 1}K_h(X_j - X_{n + t})}$ که در آن $K_h(X_j - X_{n + t}) = \prod_{s = 1}^q h_s^{- 1}k((Y_{j - s} - Y_{n + t - s})/h_s)$، به نظر من ترتیب مشاهدات در نظر گرفته نشده است هنگام ارزیابی عملکرد هسته در مشاهدات قبلی حساب کنید. آیا نباید مهم باشد؟ در غیر این صورت، به نظر من مشاهدات در دوره های زمانی قبلی فقط به عنوان i.i.d تلقی می شوند. داده ها (بدون ساختار زمانی). اگر بخواهم از تابع npqreg در بسته R np برای داده های سری زمانی استفاده کنم، مشابه پیش بینی چندک های آینده است. پیشاپیش از هر نظری ممنونم | پیش بینی سری های زمانی ناپارامتریک |
107899 | من در حال مطالعه یک ساخت زبانی (بیایید آن را «C» بنامیم) در یک زبان «L1» در تلاش برای جداسازی چندین عامل («F1»، «F2»، ...، «Fn») بودهام که میتوانند بر حضور تأثیر بگذارند/محرک شوند. از C در L1. همه عوامل متغیرهای طبقه ای با چندین سطح هستند. من آزمونهای معنیداری پایه (خوبی برازش) را انجام دادم که سطح بالایی از معنیداری را برای هر یک از عوامل دخیل نشان داد. با این حال، من اکنون می خواهم تعامل همه عوامل / همه سطوح را اندازه گیری کنم. در مورد روش، من فکر می کنم که رگرسیون پواسون همان چیزی است که من به دنبال آن هستم زیرا C هیچ سطحی ندارد و می تواند بر حسب فرکانس نمایش داده شود. بنابراین من رگرسیون پواسون را در R امتحان کردم اما به زودی با چندین مشکل مواجه شدم. من به طور خاص دو سوال دارم: 1. چارچوب داده ای که من استفاده کردم به این شکل بود (در اینجا فقط بخش کوچکی از آن را می توانید به عنوان مثال پیدا کنید): Subj (Factor1) NP (F2) New (F3) EXP_CON (F4) به فرکانس های همه ترکیبات متغیر را دریافت کردم، من از تابع ftable استفاده کردم و سپس به صورت دستی فرکانس ها را محاسبه کردم. ناگفته نماند که این روش دردناکی بود و زمان زیادی را صرف کرد! آیا R راه آسانتر و سریعتری برای به دست آوردن فرکانسها برای همه عوامل/سطوح برهمکنش (احتمالاً حذف خودکار تعاملاتی که فرکانس آنها صفر است) ارائه میکند؟ به عبارت دیگر، من می خواهم چیزی شبیه به آن بدست بیاورم: Sub (F1) NP (F2) EXP_CON (F3) New (F4) (Freq) 6 2. پس از آن، من سعی کردم یک مدل رگرسیون پواسون را اجرا کنم اما نتیجه گیج کننده در اینجا یک نمونه از آنچه من دریافت کردم آمده است: Syn_FunOther:Focus_CCIMP_CON:IS_CCGiven NA NA NA NA Syn_FunSub:Focus_CCIMP_CON:IS_CCGiven NA NA NA NA Syn_FunOther:Focus_CCNO_CON:NA NA CCGiven Syn_FunSub:Focus_CCNO_CON:IS_CCGiven NA NA NA NA Syn_FunOther:Focus_CCNOV:IS_CCGiven NA NA NA NA من واقعاً متوجه نمی شوم. چرا مقادیر «NA» زیادی وجود دارد؟ | مشکلات رگرسیون پواسون |
395 | من یک مجموعه داده دارم که در آن هر هفته یک سری اندازه گیری انجام می شود. به طور کلی مجموعه داده ها یک تغییر +/- 1 میلی متر در هر هفته با میانگین اندازه گیری در حدود 0 میلی متر را نشان می دهد. در ترسیم داده های این هفته به نظر می رسد که حرکت قابل توجهی در دو نقطه رخ داده است و با نگاهی به مجموعه داده ها، این امکان نیز وجود دارد که حرکت هفته گذشته نیز رخ داده باشد. بهترین راه برای نگاه کردن به این مجموعه داده چیست تا ببینیم چقدر محتمل است که حرکاتی که دیده شده اند، حرکات واقعی باشند و نه فقط یک اثر ناشی از تحمل طبیعی در خوانش ها. **ویرایش** برخی اطلاعات بیشتر در مورد مجموعه داده. اندازه گیری ها در 39 مکان انجام شده است که باید به روشی مشابه رفتار کنند، اگرچه فقط برخی از نقاط ممکن است علائم حرکت را نشان دهند. در هر نقطه قرائت ها اکنون 10 بار به صورت دو هفته ای انجام شده است و تا آخرین مجموعه قرائت ها اندازه گیری ها بین 1- میلی متر و 1 میلی متر بوده است. اندازهگیریها را فقط میتوان با دقت میلیمتر انجام داد، بنابراین نتایج را فقط با نزدیکترین میلیمتر دریافت میکنیم. نتایج برای یکی از نقاطی که حرکت را نشان می دهد 0 میلی متر، 1 میلی متر، 0 میلی متر، -1 میلی متر، -1 میلی متر، 0 میلی متر، -1 میلی متر، -1 میلی متر، 1 میلی متر، 3 میلی متر است. ما به دنبال اطلاعات آماری قابل توجهی نیستیم، فقط به دنبال یک شاخص از آنچه ممکن است رخ داده باشد. دلیل آن این است که اگر اندازهگیری در یک هفته بعد به 5 میلیمتر برسد، مشکل داریم و میخواهیم از قبل به ما هشدار داده شود که ممکن است این اتفاق بیفتد. | چگونه تشخیص دهیم که آیا اتفاقی در مجموعه داده ای رخ داده است که یک مقدار را در طول زمان نظارت می کند |
114549 | آیا کسی میتواند به من نمونههایی از توزیعهای متقارن حول میانگین را ارائه دهد، اما برای میانگین و واریانس یکسان، نسبت به توزیع عادی در اطراف میانگین متمرکزتر هستند؟ با تشکر | توزیع هایی مشابه توزیع عادی |
101072 | آیا این امکان پذیر است و اگر چنین است، انجام کارها به روشی به جای دیگری چه پیامدهایی دارد. آیا یک رویکرد به طور کلی ارجح است؟ تا کنون فقط استفاده از ماتریس واریانس کوواریانس به من آموزش داده شده است. | پیامدهای انجام یک تحلیل عاملی تاییدی با یک ماتریس همبستگی به عنوان ورودی به جای ماتریس واریانس-کوواریانس؟ |
114443 | من در درک نماد در معادله (1) در صفحه 4 مقاله زیر کمی مشکل دارم: https://escholarship.org/uc/item/35x3v9t4#page-4 به طور خاص، $E_{X,Y چه می کند }$ و $E_\theta$ یعنی؟ به نظر می رسد این یک ضرب المثل است که $PE$ جنگل به سمت $PE$ یک درخت به صورت $k \ به \infty$ تمایل دارد، اما این منطقی نیست. | نماد اثبات تصادفی جنگل |
114442 | من دارم از طریق Gelfand، A.E. & Li Zhu، B.P.C کار می کنم. (2001). در مورد تغییر مشکل پشتیبانی در داده های مکانی - زمانی آمار زیستی، 2:1، 31-45. من در این گیر کرده ام:  این کاملاً اولین ذکری از f در هر جایی در مقاله است. آیا کسی می تواند به من کمک کند تا آن را شناسایی کنم؟ * Y = فرآیند فضایی * s = مکان های اندازه گیری شده * بتا، تتا = ضرایب فرضی برای تابع میانگین و تابع کوواریانس * H = تابع کوواریانس زوجی (؟) <\-- در مورد آن خیلی واضح نیست | پیش بینی فضایی بیزی: f چیست؟ |
48918 | > ارقام دست نویس را با استفاده از PCA طبقه بندی کنید. از 200 رقم برای مرحله قطار > و 20 برای آزمایش استفاده کنید. من نمی دانم که چگونه PCA به عنوان یک روش طبقه بندی کار می کند. من یاد گرفتم که از آن به عنوان روش کاهش ابعاد استفاده کنم که در آن داده های اصلی را از میانگین آن کم می کنیم، سپس ماتریس کوواریانس، مقادیر ویژه و بردارهای ویژه را محاسبه می کنیم. از آنجا، ما می توانیم اجزای اصلی را انتخاب کنیم و بقیه را نادیده بگیریم. چگونه باید یک دسته از ارقام دست نویس را طبقه بندی کنم؟ چگونه داده ها را از کلاس های مختلف تشخیص دهیم؟ یا این که من باید از PCA برای اهداف استخراج ویژگی استفاده کنم و بعد از آن از یک روش طبقه بندی استفاده کنم، معنای کاملاً متفاوتی دارد؟ | طبقه بندی ارقام دست نویس با استفاده از PCA |
60901 | من می خواهم یک حلقه در R اجرا کنم. من قبلاً این کار را انجام نداده ام، بنابراین از کمک شما بسیار سپاسگزار خواهم بود! 1. من یک مجموعه نمونه دارم: 25 شی. من می خواهم 1 شی از آن ترسیم کنم و از آن به عنوان یک مجموعه آزمایشی برای اعتبارسنجی خارجی آینده خود استفاده کنم. 24 شیء باقی مانده را می خواهم به عنوان یک مجموعه آموزشی (برای انتخاب یک مدل) استفاده کنم. من می خواهم این روند را تکرار کنم تا زمانی که تمام 25 شیء به عنوان یک مجموعه آزمایشی استفاده شوند. 2. برای هر یک از مجموعه های آموزشی می خواهم کد زیر را اجرا کنم: $\,$ library(leaps) forward <- regsubsets(Y ~.,data = training, method = forward, nbest=1) backward < - regsubsets (Y ~.، داده = آموزش، روش = به عقب، nbest=1) گام به گام <- regsubsets (Y ~.، داده = آموزش، روش = seqrep، nbest=1) جامع <- regsubsets (Y ~.، داده = آموزش، روش = به جلو، nbest=1) خلاصه (به جلو) خلاصه (به عقب) خلاصه (گام به گام) خلاصه (کامل) من می خواهم برنامه R برای انتخاب بهترین مدل (با بالاترین $R^2$ تنظیم شده) با استفاده از هر یک از روش های انتخاب، بنابراین 4 بهترین مدل نهایی وجود دارد (به عنوان مثال. بهترین مدل انتخاب شده با انتخاب رو به جلو، بهترین مدل انتخاب شده با انتخاب عقب و غیره...). پس از آن، من میخواهم اعتبارسنجی متقاطع داخلی هر چهار مدل انتخاب شده را انجام دهم و یکی از چهار مدل را انتخاب کنم که کمترین میانگین میانگین مربعات خطا (MSE) را دارد. من قبلاً این کار را با استفاده از کد زیر انجام می دادم: library(DAAG) val.daag<-CVlm(df=training, m=1, form.lm=formula(Y ~ X1+X2+X3)) val.daag<-CVlm (df=آموزش، m=1، form.lm=فرمول (Y ~ X1+X2+X4)) val.daag<-CVlm(df=آموزش، m=1، form.lm=فرمول(Y ~ X3+X4+X5)) val.daag<-CVlm(df=آموزش، m=1، form.lm=فرمول (Y ~ X4+X5+X7)) برای بهترین مدل انتخاب شده (پایین ترین MSE) من می خواهم یک اعتبار سنجی خارجی روی 1 شی باقی مانده در سایت در شروع مطالعه (لطفاً به نقطه 1 مراجعه شود). 3\. و دوباره با استفاده از آموزش و مجموعه تست های مختلف حلقه بزنید... امیدوارم که بتونید در این مورد به من کمک کنید. اگر پیشنهادی برای انتخاب بهترین مدل و اجرای کارآمدتر اعتبارسنجی دارید، خوشحال می شوم در مورد آن بشنوم. متشکرم | چگونه یک حلقه در R بنویسیم تا مدل رگرسیون چندگانه را انتخاب کرده و اعتبار سنجی کنیم؟ |
396 | من معمولاً هنگام تهیه طرحها، انتخابهای خاص خود را انجام میدهم. با این حال، نمیدانم که آیا بهترین روش برای تولید طرحها وجود دارد یا خیر. توجه: نظر راب برای پاسخ به این سوال در اینجا بسیار مرتبط است. | هنگام تهیه طرح ها چه بهترین شیوه ها را باید رعایت کنم؟ |
92881 | من یک دیتافریم متشکل از سری زمانی از اندازه گیری هایی دارم که هر ساعت به مدت 366 روز یا یک سال انجام می شود. در زیر نمونه ای از اندازه گیری های ساعتی برای دو هفته اول نشان داده شده است. من میخواهم روزها را با نمایه مشابه اندازهگیریهای ساعتی خوشهبندی کنم. با استفاده از R، چگونه می توانم روزهای با پروفایل های مشابه را گروه بندی کنم؟ با تشکر روز 1 روز 2 روز 3 روز 4 روز 5 روز 6 روز 8 روز 9 روز 10 روز 11 روز 12 روز 13 روز 14 ساعت 1 11 14 20 23 51 13 18 15 8 25 13 24 8 48 ساعت 2 2 13 21 19 21 21 111 17 18 Hour3 5 6 7 13 14 6 8 9 7 15 12 11 2 11 Hour4 6 4 6 18 11 2 10 4 5 20 10 10 3 8 Hour5 4 12 5 13 7 9 13 13 13 33 33 25 20 13 46 29 42 27 22 32 29 30 10 Hour7 65 72 70 19 12 72 73 66 75 21 80 74 62 9 Hour8 78 79 878 1051 47 91 82 76 27 ساعت 9 96 64 75 48 34 89 96 91 96 50 101 79 93 31 ساعت 10 73 91 70 80 42 103 63 82 74 79 821 71 82 48 64 65 70 66 84 71 75 58 45 ساعت 12 54 59 99 71 62 68 85 65 58 73 63 103 51 59 ساعت 13 85 69 73 73 78 110 82 80 ساعت 14 78 75 108 72 82 58 80 78 70 74 75 112 75 79 ساعت 15 65 93 95 89 66 72 91 75 78 9916 92 88 94 103 108 88 88 90 93 96 92 91 ساعت 17 97 118 95 95 85 125 113 106 106 97 111 99 94 82 18 18 18 18 18 18 18 18 84 109 108 114 118 83 80 ساعت 19 101 95 105 90 71 84 89 85 103 92 108 109 98 68 ساعت 20 60 55 102 56 726 726 57 52 ساعت 21 55 51 54 57 65 42 58 42 36 59 41 58 52 62 ساعت 22 45 34 23 30 33 51 45 56 37 32 42 24 434 42 42 29 30 44 0 45 5 40 41 31 ساعت24 25 17 30 40 14 24 17 15 28 42 33 34 22 11 | خوشه بندی سری زمانی اندازه گیری ها در R |
92885 | در صفحه تحلیل خوشه ای ویکی پدیا خواندم: > برای مثال، خوشه بندی k-means فقط می تواند خوشه های محدب را پیدا کند، و بسیاری از شاخص های ارزیابی، خوشه های محدب را فرض می کنند. در یک مجموعه داده با خوشه های غیر محدب، نه استفاده از k-means، و نه معیار ارزیابی که > محدب را فرض می کند، صحیح نیست. من نمی توانم ببینم که چگونه یک شاخص ارزیابی، خوشه های محدب را فرض می کند. آیا کسی می تواند این ایده را توضیح دهد؟ | فرضیه شاخص های ارزیابی برای خوشه بندی |
111544 | من سعی می کنم یک مدل پیش بینی مقطعی (پانل پویا) با شکل زیر بسازم: (شامل LDV) $Y_{i,t+1}=a+bY_{i,t}+cX_{i,t }+e_{i,t+1}$ همانطور که نمونه برای مثال شامل کشورهایی است که از نظر اندازه بسیار متفاوت هستند و همه متغیرها در مقادیر مطلق هستند (مثلاً تولید ناخالص داخلی مطلق به دلار) اصطلاح رهگیری به شدت پیش بینی های من را مغرضانه می کند. از آنجایی که رهگیری های من اغلب بسیار منفی است، پیش بینی برای یک کشور کوچک با تولید ناخالص داخلی پایین منفی خواهد بود. اکنون میپرسم که آیا میتوانید مدل را (از نظر دقت پیشبینی بالاتر) با حذف ساده رهگیری بهبود ببخشید. انجام این کار به این معنی است که ما از مبدأ عبور می کنیم، اما من نمی دانم که چگونه باید با مدل من مطابقت نداشته باشد. عواقب دیگر چیست؟ من خوانده ام که R^2 می تواند به طور قابل توجهی بالاتر باشد، اما R^2 به هر حال بهترین راه برای ارزیابی یک مدل نیست و از آنجایی که من یک DV عقب مانده را اضافه می کنم، به هر حال نباید به R^2 توجه زیادی داشته باشم. | حذف عبارت رهگیری در یک رگرسیون پویا موجه است؟ |
22672 | آیا مرجع خوبی (در صورت وجود کتاب) در مورد آمار ریاضی متغیرهای تصادفی وابسته وجود دارد؟ چیزی مطابق با کتاب درسی کازلا و برگر، اما برای نمونه های وابسته. من به یک برنامه خاص علاقه مند نیستم، فقط نظریه، البته با فرض استقلال گاهی اوقات به اندازه کافی خوب به نظر می رسد، اما بسیاری از الگوریتم ها در یادگیری ماشین نمونه های iid را فرض می کنند، با این حال می خواهم بگویم اگر داده ها مستقل نباشند چه می شود. بدنه نظریه برای این چیست؟، یا اینکه آیا چنین کتاب یا منبعی تا به حال در این مورد نوشته شده است. | مرجع خوبی در تجزیه و تحلیل نمونه های وابسته |
114448 | من باید نقاط داده را بر روی یک قانون قدرت قرار دهم و هر یک از اینها یک عدم قطعیت دارد. من از Python، به طور دقیق تر scipy.optimize.curve_fit برای انجام کار استفاده کرده ام، اما نمی دانم چگونه با عدم قطعیت ها کنار بیایم. من در مورد استفاده از یک تناسب خطی در مقیاس log-log فکر کردم، اما در مقایسه با قرار دادن مستقیم بر روی یک قانون قدرت، دقیقتر به نظر میرسد (بدون توجه به عدم قطعیتها، فقط آزمایش روی دادههای تولید شده و نویز اضافه شده). من آن را پیدا کردم اما واقعاً به من کمک نمی کند. من بدم نمی آید از R برای انجام کار در صورت نیاز استفاده کنم. | برازش قانون قدرت داده ها با عدم قطعیت |
111541 | آیا کسی میتواند جزئیات نحوه تعیین ترتیب تأخیرهای توزیعشده را برای یک مدل $\text{ADL}(p,q)$ در Matlab یا بسته آماری دیگری (و ترجیحاً در ترکیب با تأخیرهای خودرگرسیون) به من ارائه دهد. ? به نظر میرسد نمونههای کاری کامل با معیارهای انتخاب مدل ($\text{AIC}$ و $\text{BIC}$) در وبسایت Matlab برای مدلهای $\text{VAR}$، مدلهای $\text{ARMA}$ موجود است. و غیره اما من نمی توانم یکی برای مدل $\text{ADL}(p,q)$ پیدا کنم. من نمیدانم چگونه آن مدلها را در $\text{ADL}(p,q)$ بازنویسی کنم، اما احساس مبهمی دارم که چنین چیزی ممکن است. در پایان میخواهم این تجزیه و تحلیل را با بررسی کردن دستورات تاخیری $p$ و $q$ و سپس استفاده از این اعداد بطور خودکار برای ایجاد رگرسیون از این به صورت خودکار انجام دهم. بنابراین اساساً من به دنبال یک نمونه کاملاً کارآمد هستم. (من می خواهم تا آنجا که ممکن است بخشی از افزودن و حذف رگرسیورهای دستی را نادیده بگیرم تا به یک ایده سریع از تاخیرهای توزیع شده چندین دارایی دست یابیم). | مدلهای تأخیر توزیعشده خودرگرسیون ADL(p,q): جستجوی «چگونه» ترجیحاً در Matlab (Stata/R/Python/C# و غیره) |
107891 | Spivey، Grosjean و Knoblich، (2005) با تجزیه و تحلیل دادههای رفتاری میخواستند نشان دهند که نتایج آنها از توزیع تکوجهی بهجای میانگینگیری از زیرجمعیتها در توزیع دووجهی به دست آمده است. دادههای آنها 42 دلار (شرکتکنندگان) \ بار 2 (شرایط-\ کنترل\ \&\ گروه) \زمان 16 (آزمایش\ در هر\ شرط) دلار ساختار یافته بود، و برای بررسی توزیعها نمرات درون زیربنایی را استاندارد کردند و سپس آنها را ادغام کردند. : > با آزمایش های بسیار کمی در یک شرکت کننده برای ارائه معیار کافی از > یکنواختی یا دووجهی توزیع این مسیرها > انحرافات، مقادیر برای شرایط گروهی و کنترل با هم > به نمره z در یک شرکتکننده تبدیل شد و سپس در بین شرکتکنندگان ادغام شد. > > [...] > > ما همچنین در داخل هر شرکتکننده، ناحیه زیر مسیر را بهطور جداگانه برای کارآزماییهای گروهی و کنترلی، z-score میدهیم، و سپس بین افراد > ادغام میکنیم. سپس این توزیعهای ادغامشده برای دو وجهی، با استفاده از ضریب دووجهی (که در مقاله ذکر نشده است)، در میان سایر معیارها، مورد تجزیه و تحلیل قرار گرفتند، که از آن به این نتیجه رسیدند که دادههای آنها از توزیع یکوجهی است. این رویکرد استاندارد-پول-تحلیل به استاندارد در ادبیات ردیابی موش الهام گرفته از این مقاله تبدیل شده است. با این حال، با توجه به اینکه هیچ کار قبلی برای توجیه این روش ذکر نشده است، و می دانیم که تجزیه و تحلیل های گزارش شده در PNAS همیشه قابل سرزنش نیستند، مایلم نظرات ذهن های آماری بزرگتری را نسبت به من جویا شوم. **آیا این رویکرد موجه است؟ آیا این یک روش عینی برای ارزیابی دووجهی بودن در دادهها است، یا استانداردسازی دادهها را یکوجهتر از آنچه هست نشان میدهد؟ داده های رفتاری آنها را به همان روش استاندارد کنید، بدون اینکه در مورد موضوع بحث کنید: > استفاده از توزیع z مقادیر AUC مسیرها [...] | استاندارد کردن داده ها در درون افراد هنگام تجزیه و تحلیل توزیع ها |
32226 | من y را تابعی از x می بینم. y یک اسکالر، x بردار بعد n است. من k مشاهدات y و x دارم. اجازه دهید $X = \begin{bmatrix}x_{1,1} & \cdots & x_{1,n}\\\\\vdots & \vdots & \vdots \\\ x_{k,1} و \cdots & x_{k,n}\end{bmatrix}$$ $$Y = \begin{bmatrix}y_1 & x_{1,1} & \cdots & x_{1,n}\\\\\vdots &\vdots & \vdots & \vdots \\\ y_k & x_{k,1} & \cdots & x_{k,n}\end{bmatrix}$$ فرض میشود که متغیرهای x تقریباً مستقل باشند (من میتوانم یک PCA برای تأیید آن انجام دهم، پیامدهای یک مورب غیر هویتی چیست؟ ماتریس؟)، و من میخواهم کمیت کنم که کدام متغیرها در x y را بهتر توضیح میدهند. ایده این است که به محورهای اصلی در PCA Y نگاهی بیندازیم، به نظر شما این راه درستی است؟ چگونه نتایج را تفسیر کنم؟ | تجزیه و تحلیل چند متغیره و PCA |
3749 | من در حال کشف دنیای شگفت انگیزی به نام مدل های پنهان مارکوف هستم که به آنها مدل های تغییر رژیم نیز می گویند. من می خواهم یک HMM را در R برای تشخیص روندها و نقاط عطف تطبیق دهم. من می خواهم تا حد امکان مدل را عمومی بسازم تا بتوانم آن را روی بسیاری از قیمت ها آزمایش کنم. **آیا کسی می تواند مقاله ای را توصیه کند؟** من (بیش از) تعداد کمی را دیده ام (و خوانده ام) اما به دنبال یک مدل ساده هستم که پیاده سازی آن آسان باشد. همچنین **چه بسته های R توصیه می شود؟** می توانم ببینم تعداد زیادی از آنها HMM را انجام می دهند. من کتاب «مدلهای مارکوف پنهان برای سریهای زمانی: مقدمهای با استفاده از R» را خریدهام، ببینیم چه چیزی در آن است. | استفاده از HMM در امور مالی کمی نمونه هایی از HMM که برای تشخیص روند / نقاط عطف کار می کند؟ |
65264 | من با استفاده از ماشین های بردار پشتیبان به عنوان طبقه بندی کننده پایه در پیاده سازی مجدد Poselets توسط پایتون آشنا هستم. اما من در استفاده از رگرسیون بردار پشتیبان (نه ماشین های طبقه بندی) برای داده های سری زمانی تازه کار هستم. در مجموعه دادههایم، بردار متغیرهای هدف $y_{i,t}$ و یک ماتریس از متغیرهای پیشبینیکننده (ویژگیها) $X_{i,t}$ دارم که $i$ نشاندهنده فرد در جمعیت است (ردیفهای مشاهدات)، و من این مقاطع مقطعی از اهداف و پیش بینی کننده ها را برای دوره های زمانی زیادی $t$ دارم. من از نماد $x_{i,t}$ برای مشخص کردن کل مجموعه ویژگی ها (کل ردیف) برای $i$ فردی در زمان $t$ استفاده می کنم. نماد $x^{j}_{t}$ نشان دهنده ستونی با ویژگی $j$-th در همه افراد در زمان $t$ است. بنابراین $X_{i,t}^{j}$ ورودی $(i,j)$ ماتریس ویژگی در زمان $t$ است. در مورد من، همه پیشبینیکنندهها متغیرهای پیوسته هستند، اگرچه میتوانم برخی پیشبینیکنندههای طبقهبندی را تصور کنم که میتوانند مفید باشند. همچنین می توانیم فرکانس زمانی را برای همه متغیرهای هدف و پیش بینی ثابت فرض کنیم. سوال من سه مورد است: (1) آیا مجموعه ای از بهترین شیوه های پذیرفته شده برای پیش پردازش پیش بینی کننده ها (امتیاز، عادی سازی، مقیاس بندی مجدد، و غیره) وجود دارد تا ورودی های معقول تری برای مرحله رگرسیون بردار پشتیبان ارائه دهد؟ (به عنوان مثال، آیا می توانید به من مرجعی برای این موضوع اشاره کنید. من قبلاً در آموزش Smola و Scholkopf، کتاب Bishop، و Duda، Hart و Stork نگاه کرده ام، اما هیچ راهنما یا بحث مفیدی در مورد نگرانی های پیش پردازش عملی پیدا نکردم) . (2) آیا مراجع مشابه یا بهترین روش برای مدیریت ورودی های سری زمانی برای پشتیبانی از رگرسیون برداری وجود دارد؟ به عنوان مثال، در یک تنظیم رگرسیون خطی، گاهی اوقات مردم نگران همبستگی مقطعی عبارت های خطا یا متغیرهای پیش بینی هستند. این با در نظر گرفتن میانگینها در بعد زمانی، عموماً با فرض عدم وجود همبستگی خودکار، درمان میشود، و (به عنوان مثال رگرسیون Fama-MacBeth) میتوان نشان داد که حتی در حضور همبستگی مقطعی، برآوردگرهای بیطرفانه ضرایب هستند. من هرگز با مکانهایی برخورد نکردهام که روشهای بردار پشتیبان به عنوان حساس به همبستگی مقطعی بین پیشبینیکنندهها یا عبارتهای خطا توصیف شده باشند. آیا این یک نگرانی است؟ در مدلسازی بردار پشتیبان چگونه رفتار میشود؟ در نهایت، میتوانم کارهای زیر را تصور کنم: برای یک بازه زمانی معین $t^{*}$، نه تنها از متغیرهای پیشبینیکننده استفاده کنید که در همان دوره زمانی فرمولبندی شدهاند، $X_{i,t^{*} }$ بلکه این مجموعه از بردارهای ویژگی را با نسخههای عقب افتاده متغیرها، برای هر دوره زمانی بعدی که فکر میکنم مرتبط است، تقویت کنید. و در مرحله امتیاز دهی (1) شاید بتوانم تابع وزن رو به زوال را اعمال کنم تا به مشاهدات جدیدتر وزن بیشتری داده شود. اما به نظر من این ایده بدی به نظر می رسد. برای یکی، پیشبینیکنندههای $X_{i,t}$ عموماً به دلیل دانش خاص دامنه، شهود، یا روش دیگری برای دریافت اطلاعات قبلی در مورد آنچه ممکن است یک پیشبینی موفق باشد، انتخاب میشوند. صرفاً حذف تمام نسخههای عقب افتاده از یک چیز، کمی شبیه به دادهکاوی است و من نگرانم که منجر به تطبیق بیش از حد زمان شود. ثانیاً، حتی با روشهای بردار پشتیبان، هنوز هدفی برای داشتن یک مدل صرفهجویی وجود دارد، بنابراین مطمئناً نمیخواهم درجاتی از آزادی برای مجموعه عظیمی از نسخههای عقب افتاده متغیرهای پیشبینیکننده وجود داشته باشد. با توجه به همه اینها، چند نمونه از درمان های رگرسیون بردار پشتیبان پذیرفته شده یا کاربردی برای داده های سری زمانی چیست؟ چگونه به این مشکلات رسیدگی می کنند؟ (باز هم، یک مرجع مطلوب است. من به دنبال شخصی برای نوشتن پایان نامه فارغ التحصیلی به عنوان پاسخ در اینجا نیستم.) (3) برای مدلی که برازش می شود، قطعاً مقایسه هایی با مدل های کلاسیک تر انجام می شود، مانند OLS ساده یا GLS. در آن مدل ها دو ویژگی بسیار زیبا وجود دارد. اولاً، درجات آزادی بسیار شفاف است زیرا معمولاً هیچ فراپارامتری برای تنظیم و هیچ مرحله پیش پردازشی فراتر از مراحل امتیازدهی خطی در متغیرهای ورودی وجود ندارد. دوم، پس از برازش توابع رگرسیون، به سادگی می توان دقت طبقه بندی کننده را به اجزای خطی مختلف مدل نسبت داد. آیا آنالوگ هایی برای آنها با رگرسیون بردار پشتیبان وجود دارد؟ هنگام استفاده از توابع هسته، مانند RBF گاوسی، برای تبدیل ورودیها، آیا منصفانه است که بگوییم تنها درجات آزادی اضافی معرفی شده، هر فراپارامترهایی است که بر فرم عملکردی هسته حاکم است؟ این به نظر من کمی اشتباه است، زیرا شما به طور موثر به خود اجازه میدهید فضای کاملی از تبدیلهای بررسی نشده دادهها را کشف کنید، که واقعاً فقط در شکل عملکردی تابع هسته ثبت نمیشوند. چگونه می توانید مدلی مانند این را به دلیل داشتن آزادی بسیار بیشتر در تطبیق بیش از حد داده ها با تبدیل های غیر خطی نسبتاً جریمه کنید؟ و در آخر، آیا روش های مشابهی برای تجزیه دقت مدل بردار پشتیبان برازش وجود دارد؟ اولین فکر من در اینجا این بود که شما به نحوی نیاز به اندازه گیری چیزی شبیه اطلاعات متقابل طبقه بندی کننده آموزش دیده شامل پیش بینی $x^{j}$ (ستون $j$-امین بردار ویژگی در | سه سوال در مورد رگرسیون بردار پشتیبانی: پیش پردازش ویژگی، مسائل سری زمانی، و سهم دقت نهایی هر ویژگی |
114445 | برای مدل خطی $$y_i=\beta_0 +\sum_{k=1}^{n}\beta_k x_{ik} + \epsilon_i$$، برآوردهای پارامتر برای روش حداکثر درستنمایی و روش حداقل مربع یکسان است ( به حداقل رساندن $\sum_{i=1}^n\epsilon_i^2$) اگر خطاها در حالت عادی فرض شوند. بنابراین من فکر می کنم که اگر از حداقل مربعات استفاده کنیم، احتمالاً به طور ضمنی به خطاها عادی بودن نسبت می دهیم. آیا این درست است - آیا می توان نشان داد که روش حداقل مربع این کار را انجام می دهد (بدون توسل به راه حل حداکثر احتمال)؟ | آیا رگرسیون حداقل مربعات به نرمال بودن خطاها دلالت دارد؟ |
93136 | 1. میخواهم ثابت بودن را با استفاده از تست adf یا تابع ur.df روی R ur.df(y، نوع = c(هیچ، drift، روند)، تاخیر = 1،selectlags = c(ثابت آزمایش کنم ، AIC، BIC)) سوال من این است که هنگام استفاده از adf.test تابع ترتیب تاخیر را به تنهایی با استفاده از معیارهایی انتخاب می کند، اما اگر مطمئن نیستم چگونه از ur.df استفاده کنیم. از چه ترتیب تاخیری استفاده کنیم؟ 1. هنگام استفاده از adf.test، من با یک خطای عجیب و غریب مواجه می شوم. با تشکر | ترتیب تاخیر در آزمون ur.df یا adf [R] |
104271 | من این تمرین را انجام دادم: > اجازه دهید $T$ یک متغیر تصادفی باشد که به صورت $\text{Bernoulli}(p)$، $U$ be > یک متغیر تصادفی توزیع شده به صورت $\text{Bernoulli}(q)$ و $W$ یک متغیر تصادفی باشد > به صورت $\text{Poisson}(\lambda)$ توزیع شده است. احتمال > تابع $X =T \cdot U\cdot W\,$ را پیدا کنید. من ابتدا محاسبه کردم: $ \ \ P(T\cdot U = 1) = P(T=1)\cdot P(U=1) = pq \\\ P(T \cdot U = 0) = 1 - P( T\cdot U=1) = 1 - pq $ سپس من اشتباه کردم که فکر کردم: $ P(X=0) =P(T\cdot U = 0 , W> 0) +P(T \cdot U = 1، W= 0) $ فرمول صحیح برای احتمال $ X = 0 $ بود، این به نظر من منطقی و متقارن بود، شهود من مرا به بیراهه می برد. سپس فکر کردم که $ P(X = 0) = P(T\cdot U= 0) + P(W = 0)$ برای بار دوم، شهود من مرا به بیراهه می کشاند. راه حل ها به عنوان راه حل صحیح برجسته می شوند: $P(X= 0) = P(T\cdot U = 0) + P(T\cdot U = 1, W = 0) $ به طور شهودی این نتیجه را برای خودم توضیح دادم: اگر $ P(T\cdot U = 0) $ پس نیازی نیست متغیر تصادفی دیگر را بررسی کنم زیرا هر چیزی ضربدر 0 برابر 0 است. اگر $ P(T\cdot U = 1) $ سپس من باید پواسون 0 باشد تا $ P (X = 0) $ داشته باشد. اما چون شهودم ناکام ماند، دوست دارم بفهمم که راه حل از کدام قانون احتمال برای حل این تمرین استفاده می کند، به نظر من قانون احتمال کل یا هر شکلی از قانون بیز نیست. یک مدرک رسمی از برابری مورد استفاده برای من مفید خواهد بود. همچنین اگر می خواهید به روش جادوگری به دو تلاش اول من اشاره کنید که اشتباه بوده است، سپاسگزار خواهم بود. | تابع احتمال سه متغیر تصادفی ضرب شده، شهود را مستحکم می کند |
32225 | در اینجا خلاصه خروجی مدل Coxph است که من استفاده کردم (من از R استفاده کردم و خروجی بر اساس بهترین مدل نهایی است، یعنی همه متغیرهای توضیحی مهم و تعاملات آنها گنجانده شده است): coxph (فرمول = Y ~ LT + Food + Temp2 + LT:Food + LT:Temp2 + Food:Temp2 + LT:Food:Temp2) # Y<-Surv(Time,Status==1) n= 555 coef exp(coef) se(coef) z Pr(>|z|) LT 9.302e+02 Inf 2.822e+02 3.297 0.000979 *** Food 3.397e +03 Inf 1.023e+03 3.321 0.000896 *** Temp2 5.016e+03 Inf 1.522e+03 3.296 0.000979 *** LT:Food -2.250e+02 1.950e-98 6.807e+01 -3.309T ***T2094. -3.327e+02 3.352e-145 1.013e+02 -3.284 0.001022 ** غذا:Temp2 -1.212e+03 0.000e+00 3.666e+02 -3.307 0.009 0.009 Food 8.046e+01 8.815e+34 2.442e+01 3.295 0.000986 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Rsquare = 0.123 (حداکثر امکان = 0.858 ) آزمون نسبت درستنمایی = 72.91 در 7 df، p=3.811e تست = 55.79 در 7 df، p=1.042e-09 آزمون نمره (لوگرانک) = 78.57 در 7 df، p=2.687e-14 سؤال این است: چگونه مقادیر ضریب و exp(coef) را در این مورد تفسیر کنیم، زیرا مقادیر بسیار بزرگی هستند؟ همچنین تعامل 3 موردی درگیر است که تفسیر را بیشتر گیج می کند. تمام مثالهای مربوط به مدل Coxph که تا کنون آنلاین پیدا کردهام، در رابطه با اصطلاحات واسط (که همیشه بیاهمیت بودهاند) و همچنین مقادیر ضریب (= نرخ خطر) و نمایی از اینها (= نسبتهای خطر) بسیار ساده بودهاند. اعداد بسیار کوچک و آسانی برای کنترل بوده اند، به عنوان مثال. ضریب = 1.73 -> exp(coef) = 5.64. اما همانطور که از خروجی خلاصه (بالا) می توانید ببینید، اعداد من بسیار بزرگتر هستند. و از آنجایی که مقادیر بسیار بزرگی هستند، تقریباً به نظر می رسد که هیچ معنایی ندارند. به نظر می رسد کمی مضحک است که فکر کنیم بقا به عنوان مثال است. 8.815e+34 (نسبت خطر برگرفته از تعامل LT:Food:Temp2) بار کمتر زمانی که برهمکنش یک واحد (؟) افزایش مییابد. در واقع من نمی دانم چگونه این تعامل 3 موردی را تفسیر کنم. آیا به این معنی است که وقتی همه متغیرهای موجود در تعامل یک واحد افزایش مییابند، میزان بقا به مقدار معینی کاهش مییابد (که توسط مقدار exp(coef)-value گفته میشود)؟ خیلی خوبه اگه کسی بتونه اینجا کمکم کنه :) در زیر بخشی از برگه داده من برای تجزیه و تحلیل cox استفاده شده است. در اینجا می توانید ببینید که من بارها از مقدار متغیر توضیحی مشابه (یعنی LT، Food و Temp2) برای چندین متغیر پاسخ وضعیت، زمان استفاده کرده ام. این مقادیر متغیر توضیحی در حال حاضر مقادیر میانگین این متغیرها هستند (به دلیل تنظیم کار میدانی در طبیعت، دریافت مقدار متغیر توضیحی جداگانه برای هر فرد پاسخ مشاهده شده ممکن نبود، بنابراین مقادیر میانگین قبلاً در این مرحله استفاده شده است. ، و این به پیشنهاد 1 (؟) پاسخ می دهد (به پاسخ اول مراجعه کنید). پیشنهاد 2 (به پاسخ اول مراجعه کنید): من از R استفاده می کنم و هنوز در آن فوق خدا نیستم. :) بنابراین، اگر من از تابع predict(cox.model,type=expected) استفاده کنم، مقدار زیادی مقادیر مختلف دریافت می کنم و هیچ سرنخی از متغیر توضیحی که آنها به کدام متغیر توضیحی اشاره می کنند و به چه ترتیبی هستند ندارم. یا آیا می توان عبارت تعامل خاصی را در تابع پیش بینی برجسته کرد؟ من مطمئن نیستم که در اینجا کاملاً خودم را روشن می کنم یا خیر. پیشنهاد 3 (به پاسخ اول مراجعه کنید): در قسمت برگه داده زیر می توان واحدهای متغیرهای توضیحی مختلف را مشاهده کرد. همه آنها متفاوت هستند و شامل اعشار هستند. آیا این ربطی به نتیجه کاکس دارد؟ بخشی از برگه داده: زمان (روزها) وضعیت LT(h) غذا (قسمت در روز) دما 2 (ºC) 28 0 14.42 4.46 3.049 22 0 14.42 4.46 3.049 9 1 14.42 4.496 4.496 4.49 4.30 3. 2.595 24 0 15.33 4.45 2.595 19 1 15.33 4.45 2.595 Cheers, Unna | مدل خطر متناسب کاکس و تفسیر ضرایب زمانی که تعامل مورد بالاتر درگیر باشد |
93135 | هنگام استفاده از اعتبارسنجی متقاطع k-fold در یک شبکه عصبی، آیا به مجموعه اعتبارسنجی جداگانه نیز نیاز دارید؟ یا اینکه استفاده از k-fold به تنهایی برای به حداقل رساندن امکان تمرین بیش از حد خوب است؟ | اعتبار سنجی متقاطع K-fold برای شبکه های عصبی: مجموعه اعتبار سنجی جداگانه نیز مورد نیاز است؟ |
104277 | در ادامه این روشها برای درک دادههای سری زمانی دو بعدی، من روی دادههای سری زمانی دوبعدی کار میکنم که دو ویژگی عمق و دما هستند. وقتی من منحنی عمق در مقابل دما را رسم کردم و تغییرات آن را در طول زمان دیدم، این نوسان فقط در چند مکان رخ می دهد. فرض کنید دما به عمق بستگی دارد و در طول زمان در اعماق کمی تغییر می کند. آیا انجام تجزیه و تحلیل خوشه ای در هر نمونه زمانی و مقایسه آن با نمونه بعدی خوب است؟ نکته این است که از نظر آماری تغییرات در سراسر مهرهای زمانی شناسایی شوند. و سپس تصمیم بگیرید که کدام نمونه های مهر زمانی قابل توجه هستند. چه مدلها/مقالههایی را باید مطالعه کنم تا بینشهایی از دادهها به دست بیاورم؟ | تجزیه و تحلیل خوشه ای بر روی نمونه های سری زمانی |
32229 | میخواهم بدانم آیا دادههای من روند، یکپارچه، ریشه واحد، همبستگی خودکار یا ناهمسانی دارند. من میخواهم همه این کارها را با استفاده از Stata انجام دهم، بنابراین لطفاً مطالبی را پیشنهاد کنید یا کتابی در مورد این موضوعات به من هدایت کنید | به دنبال مواد اقتصاد سنجی سری زمانی مناسب، با مثال های Stata |
32223 | من در حال مطالعه همبستگی دو متغیر مشاهده شده هستم (آنها را $A$ و $B$ می نامیم). توزیع زیربنایی برای $A$ متقارن است در حدود $0$ (مطمئنا)، با این حال در نمونه من مشاهدات $411$ را دارم که در آن منفی است و $470$ جایی که به دلیل سوگیری نمونه مثبت است. آیا روش صحیحی برای حذف بایاس است که به سادگی 470-411 $ = 59 $ مشاهدات مثبت تصادفی را از متغیر $A$ و مشاهدات مربوط به متغیر $B$ را قبل از انجام تجزیه و تحلیل فیلتر کنیم؟ این امر توزیع مشاهدات را برای $A$ متعادل می کند. خوب، بیایید یک مثال پوچ بیاوریم تا منظورم را بیان کنم. فرض کنید فرآیندی دارید که از یک توزیع نرمال کامل در مرکز 0 پیروی می کند. دانش آموزی هر بار 10000 نمونه را ترسیم کرده و نتیجه را یادداشت می کند. با این حال، به دلایلی که فقط برای او شناخته شده است، او دوست دارد تمام نتایج مثبت را روی برگه های کاغذ قرمز و همه منفی ها را روی ورق های کاغذ بنفش بنویسد. اگر بتواند روی هر برگه 100 عدد بنویسد، در پایان تقریباً 50 برگ قرمز و 50 برگ بنفش خواهد داشت. او تمام ورق را به میز دفترش می برد تا آنالیز را ادامه دهد، اما اتفاق وحشتناکی رخ می دهد: یک موجود کاغذ خوار جهش یافته به او حمله می کند و تنها 23 برگه بنفش او را می خورد (موجود از کاغذ قرمز متنفر است). حالا او هنوز حدود 50 برگ قرمز دارد، یعنی. حدود 5000 عدد مثبت، اما فقط حدود 27 صفحه بنفش، یعنی. 2700 عدد منفی او نمی تواند آزمایش را تکرار کند. او چه کاری می تواند انجام دهد؟ آیا او می تواند به طور تصادفی 23 ورقه قرمز را انتخاب کند و آنها را دور بیندازد تا نمونه ها را دوباره متعادل کند؟ | تصحیح سوگیری نمونه |
57664 | با ارجاع به مقاله من یک سوال در مورد محاسبه p-value دارم. به عنوان مثال، من مقدار قدرت MIC 0.1643 با اندازه نمونه 30 دارم و بقیه پارامترها پیش فرض هستند. همانطور که نویسندگان در اینجا مقادیر p را داده اند چگونه می توانیم مقدار p را برای مقدار قدرت MIC بالا 0.1643 محاسبه کنیم؟ | چگونه P-value همبستگی اطلاعات متقابل (MIC) را در R پیدا کنیم؟ |
57665 | آیا می توانم یک پروبیت روی داده های زمان بقا اجرا کنم؟ این گسسته است، و من میخواهم ببینم آیا متغیرهای تاخیری روی رویداد شکست تأثیر میگذارند یا خیر. با این حال، من ضرایب منفی برای یک رگرسیون پروبیت دریافت می کنم، و مطمئن نیستم که این اتفاق بیفتد. کمک؟ | اجرای پروبیت روی داده های زمان بقا؟ |
99859 | من می خواهم یک مدل ARIMA(0,1,4)x(0,1,1) (نوشته شده با فرمت (p,d,q)x(P,D,Q) بدون استفاده از عملگر backshift بیان کنم. از قبل | چگونه یک ARIMA(0,1,4)x(0,1,1)12 را بر حسب Yt و غیره و نه بر حسب عملگر backshift بیان کنم؟ |
3746 | من باید برنامه ای بنویسم تا میانگین نقطه GPS را از جمعیت نقاط پیدا کنم. **در عمل موارد زیر اتفاق می افتد:** * هر ماه یک نفر یک نقطه GPS از همان دارایی ثابت را ثبت می کند. * به دلیل ماهیت GPS، این نقاط هر ماه کمی متفاوت است. * گاهی اوقات شخص اشتباه می کند و دارایی اشتباه را در مکانی کاملاً متفاوت ثبت می کند. * هر نقطه GPS دارای وزن قطعی (HDOP) است که نشان می دهد داده های GPS فعلی چقدر دقیق هستند. نقاط GPS با مقادیر HDOP بهتر بر نقاط پایین تر ترجیح داده می شوند. **چگونه موارد زیر را تعیین کنم:** * با داده ها با 2 مقدار در مقابل یک مقدار واحد مانند سن برخورد کنید. (میانگین سن را در جمعیتی از افراد بیابید) * نقاط پرت را تعیین کنید. در مثال زیر، اینها [-28.252، 25.018] و [-28.632، 25.219] خواهند بود * پس از حذف نقاط پرت، میانگین نقطه GPS را در این پیدا کنید که ممکن است [-28.389، 25.245] باشد. * اگر بتواند وزن ارائه شده توسط مقدار HDOP را برای هر امتیاز کار کند، یک جایزه خواهد بود.  | پیدا کردن میانگین نقطه GPS |
114447 | من فهرستی از متغیرهای پیش بینی کننده برای قرار دادن در مدل رگرسیون لجستیک دارم. چگونه می دانم که باید یک تحلیل رگرسیون لجستیک ساده (با استفاده از تابع 'glm' در R) یا یک رگرسیون لجستیک با اثر مختلط (با استفاده از تابع 'glmer' در R) انجام دهم؟ | چگونه می توانم بین یک رگرسیون لجستیک اثر ساده و ترکیبی انتخاب کنم؟ |
105636 | همانطور که میدانیم، میتوانیم بهره اطلاعات نسبی (RIG) را به صورت زیر محاسبه کنیم: $RIG = \frac{H(x) - H(x|a)}{H(x)}$. در درخت های تصمیم دودویی، $H(x|a)$ را برای تقسیم تک متغیره برای متغیر $x_i$ به صورت زیر محاسبه می کنیم: $-(p(x_i>a)H(x|x_i>a) + p(x_i>a)H (x|x_i>a))$. پس این بدان معناست که برای هر نقطه نگاه می کنیم که آیا این نقطه از سمت چپ یا از راست مرز تصمیم فعلی است. حال، سوال من این است: آیا می توان $RIG$ را برای شرایط پیچیده در گره های درختی باینری محاسبه کرد؟ مانند $(x_i<3)\;یا\;(x_i > 7)$؟ بیایید بگوییم که تمام نقاطی که $x_i < 3$ برای آنها در منطقه $I$ خواهد بود، نقاطی که $x_i$ دارند در منطقه $II$ خواهند بود، و هر نقطه با $x_i>7$ در منطقه $III خواهد بود. $. با استفاده از این نماد، آیا محاسبه آنتروپی نسبی در این مورد به صورت زیر از نظر ریاضی درست است: $-(p_{I}H_{I}+p_{II}H_{II}+p_{III}H_{III})$؟ متشکرم. | محاسبه سود اطلاعات نسبی برای تقسیمبندیهای متعدد در درختهای تصمیم |
57668 | من 54 مقدار از دست رفته در مجموعه داده های 459 موردی خود دارم. متغیرها همه باینری هستند (0-1). من میخواهم با استفاده از بسته «mi» برای R از حذف چندگانه برای جلوگیری از حذف فهرستی استفاده کنم. من به سادگی از دستور: mi(mydata) استفاده کردم که 30 تکرار و 3 انتساب پیشفرض باقی میماند. **سوال: بهترین روش برای انجام یک انتساب چندگانه برای متغیرهای باینری با استفاده از بسته mi` چیست؟** | انتساب چندگانه با متغیرهای باینری |
105635 | این سوال در رابطه با مجموعه داده ای است که قبلاً در اینجا بحث کرده ام. من سعی میکنم تعیین کنم که آیا یک درمان نه تنها بر تعداد مراجعههای بیمار به پزشک تأثیر میگذارد، بلکه مدت زمان بهبودی آسیب را نیز تحت تأثیر قرار میدهد. این دو ذاتاً به هم مرتبط هستند. اکنون ساختار گروه در طول زمان به دلیل سانسور تغییر می کند. هنگامی که یک زخم بهبود می یابد، بیمار نیازی به مراجعه به پزشک ندارد و کسانی که در گروه باقی می مانند کسانی هستند که زمان بهبودی طولانی تری دارند و در نتیجه مراجعه به پزشک بیشتر است. به دلیل این تفسیر شهودی از داده ها، من فکر کردم که یک مدل خطرات متناسب کاکس (مشکل زیر) و/یا معکوس منحنی های Kaplan-Meier برای نشان دادن اینکه چگونه درمان اولیه بر نتیجه تأثیر می گذارد خوب است. ابتدا به میانه و میانگین تعداد ویزیت های همه بیماران که حدود سه بود نگاه کردم. سپس کل گروه را به بیمارانی تقسیم کردم که به $> 3$ ویزیت و $\leq 3$ نیاز داشتند. سپس از تابع زیر در کتابخانه R (بقا) km <- km(Surv(Time, Visits>3)~Treatment, data=mydata) plot(km, fun=event) استفاده کردم. این نمودار زیر را ایجاد کرد  سپس من می خواستم اساساً همین کار را برای مدل مخاطرات coxph انجام دهم، اما متوجه شدم که تفسیر کمی بد است زیرا درمان 2 منجر به HR پایین می شود، که دور زدن ذهن شما کمی کار است و من صادقانه فکر نمی کنم درست باشد، زیرا من سعی می کنم به خطرات تجمعی نگاه کنم. کد مورد استفاده در R این بود: cox <- coxph(Surv(Time, Visits>3)~Treatment, data=mydata) summary(cox) cox(formula = Surv(Time, Visits>3) ~ Treatment, data=mydata) n= 4302، تعداد رویدادها = 1514 (41 مشاهده به دلیل فقدان حذف شد) coef exp(coef) se(coef) z Pr(>|z|) درمان 2 -0.36705 0.69278 0.05318 -6.902 5.12e-12 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 exp(coef) exp(-coef) پایین 0.95 بالا .95 درمان 2 0.6928 1.443 0.6242 0.768 0.768 se = 0.008 ) Rsquare = 0.011 (حداکثر ممکن = 0.99) آزمون نسبت درستنمایی = 48.43 در 1 df، p=3.419e-12 آزمون Wald = 47.64 در 1 df، p=5.119e-12 نمره (logrank) آزمون (logrank) f در 1 = 4 p=3.986e-12 بنابراین میپرسم * آیا تابع مخاطرات تجمعی در R برای این کار وجود دارد؟ * آیا حتی طبقه بندی بیماران بر اساس متغیر وابسته به زمان به دو گروه خوب است؟ * چگونه میخواهید نسبت خطر ناشی از این مدل را واقعاً تفسیر کنید (به اصطلاح ساده)؟ * آیا من این را کاملاً اشتباه کرده ام؟ به خاطر نظرات و کمک شما. | تابع خطر تجمعی که در آن وضعیت به زمان وابسته است |
65265 | من در حال کار بر روی گزارشی هستم که از طریق آن برای کاربران نهایی ارسال می شود که باید هرگونه تغییرات بزرگ در مقادیر روزانه در 30 روز گذشته را برای آنها علامت گذاری کند. این مقادیر تفاوتهای روزانه هستند که میانگین آن را صفر فرض میکنیم. برای روشن کردن اطلاعات بیشتر، مقادیر بازدهی متناسب به یک نمونه کارها هستند. آنها برای اندازهگیری تغییر در ریسکپذیری جنبههای مختلف پرتفویی استفاده میشوند که دائماً مدیریت میشود، بنابراین ریسکپذیری باید همیشه بر اساس استراتژی سرمایهگذاری مرتبط با آن پرتفوی معین در «حدود همان سطح» باقی بماند. همانطور که گفته شد، ریسک از روز به روز کمی نوسان خواهد کرد، اما دوباره متعادل می شود و بنابراین تغییر در ریسک روزانه باید در حدود صفر در نوسان باشد - تقریباً برای نیمی از زمان مثبت و تقریباً نیمی از زمان منفی. این تجزیه و تحلیل صرفاً به هرگونه انحراف روزانه بزرگ اشاره می کند تا بتوان آنها را بررسی کرد. بنابراین، فرض کنید دادههای زیر را داریم: روز: تغییر از روز قبل: 1 -40 2 30 3 15 4 12 5 -34 6 -2 ... 30 12 و همانطور که قبلاً گفتم، آنها به جهت تغییر، فقط برای علامت گذاری هر روز که در آن تغییر بزرگی از لحاظ آماری معنی دار است. من کنجکاو هستم که چگونه آمار مربوط به این را به درستی محاسبه کنم / کدام توزیع بهتر است برای تعیین سطوح احتمال برای این مجموعه داده ها استفاده شود. آنچه پیشنهاد شده است این است که ابتدا به مربع تغییرات نگاه کنید (به جای مقادیر اصلی، زیرا تمام چیزی که ما به آن اهمیت میدهیم بزرگی است): 1. برای محاسبه std dev به صورت $\sqrt{ \dfrac{\sum \left ( x_i - 0 \right)^2 }{29}}$ - به عبارت دیگر **مقدار مورد انتظار صفر 2 را فرض کنید. برای محاسبه std dev به عنوان $\sqrt{ \dfrac{\sum \left( x_i - \bar{x} \right)^2 }{29}}$ - به عبارت دیگر، از میانگینی که برای این نمونه محاسبه میکنیم استفاده کنید و سپس مقدار هر روز را بگیرید و آن را تقسیم کنید. توسط این std_dev برای محاسبه قدر آن. من در اینجا با چند مورد مشکل دارم، اما به خصوص ایده شماره 2، زیرا معتقدم میانگین باید صفر باشد. به طور کلی، روش صحیح تجزیه و تحلیل دلتاهایی با مقدار مورد انتظار صفر چیست و از چه توزیعی برای یک مجموعه داده 30 نمونه ای برای یافتن مقادیر معنی دار آماری استفاده می کنید؟ توجه داشته باشید که داده های تاریخی موجود است / به راحتی قابل جمع آوری است. اگر فرض کنیم تغییرات روزانه تقریباً به طور معمول توزیع می شوند، آیا مربع آنها (فقط اندازه گیری انحراف از صفر، صرف نظر از مثبت یا منفی بودن) از طریق Chi-Square توزیع می شود؟ ... یا اگر قدر مطلق آنها را در نظر بگیریم می تواند یک تا شده- عادی کار کند؟ من فقط به دنبال چیزی برای نشان دادن چگونگی توزیع بزرگی تغییر هستم... هیچ کس با فرض اینکه تغییرات به طور معمول توزیع شده است در صورت لزوم مشکلی ندارد... امیدوارم این منطقی باشد، اما، اگر نه، لطفا به من اجازه دهید بدونم کجا میتونم بیشتر توضیح بدم با تشکر (من در ابتدا این سوال را اینجا پرسیدم و توصیه شد آن را اینجا بپرسم - امیدوارم کسی در اینجا بتواند پاسخ خوبی به من بدهد) | توزیع احتمال صحیح / روش برای شناسایی انحرافات بزرگ در مجموعه ای از تغییرات روزانه به ارزش پرتفوی |
97158 | من می خواهم یک معادله را با ضریب لاگرانژ حل کنم. من روش حذف را بلدم اما باید این روش را بدانم. نمی دانم آیا کسی به من اجازه دهد که چگونه $\mu$ و 3 متغیر ناشناخته ($\hat A$) را به صورت جبری تخمین بزنم. $n.\hat\mu$ + $n_1\hat A_1$ + $n_2\hat A_2$ + $n_3 \hat A_3$ + $0 \lambda$ = $y_{..}$n_1\hat\mu$ + $n_1\hat A_1$ + $1 \lambda$ = $y_{1.}$ $n_2\hat\mu$ + $n_2\hat A_2$ + $1 \lambda$ = $y_{2.}$n_3\hat\mu$ + $n_3 \hat A_3$ + $1 \lambda$ = $y_{3.}$0$\hat\mu$ + $1\hat A_1 $ + $1 \ کلاه A_2 $ + $ 1 \ کلاه A_3 $ + $ 0 \ لامبدا $ = $ 0 $ | حل یک معادله با بیش از دو متغیر به صورت جبری |
109312 | فرض کنید من یک تابع $g_0\در L_2(\mathbb{R})$ دارم به طوری که $(X_i,Y_i)$, $i=1,...,n$ را مشاهده می کنیم به طوری که $$ \begin{تراز کردن* } Y_i & = g_0(X_i) + V_i \end{align*} $$ میخواهیم $g_0$ را تخمین بزنیم، و از آنجایی که $g_0\in L_2(\mathbb{R})$، میتوانیم $g_0$ را با استفاده از یک سری متعارف $\\{h_k\\}_{k\in\mathbb{N}}$ تقریبی کنیم. بنابراین برای هر اندازه نمونه $n$، با در نظر گرفتن سری کوتاه شده $g_{p_n}(x) = \sum_{k=1}^{p_n}\alpha_k h_k(x)$، $g_0$ را تقریب میزنیم، به طوری که $ \alpha_k = \langle g,h_k\rangle$ و برآوردگر من $\hat g = \sum_{k=1}^{p_n}\hat\alpha_kh_k$ به صورت $$ \begin{align*} \hat{\boldsymbol \alpha} = \arg\min_{\boldsymbol{\alpha}\in تعریف میشود \mathbb{R^{p_n}}} \sum_{i=1}^{n}\left[Y_i - \sum_{k=1}^{p_n}\alpha_kh_k\right]^2\\\ \end{align*} $$ نکته اینجاست که من میخواهم ضرایب برازش $\hat{\boldsymbol\alpha}$ را محدود کنم که برای هر ورودی $\hat{\boldsymbol \alpha}$, $\alpha_k$، من $|\alpha_k| \leq C$ برای برخی $C$ به شدت بزرگتر از $\|g_0\|_{\infty}$. من میدانم که اگر بخواهیم این تغییر را بهصورت اکتشافی استدلال کنیم، تنها کاری که انجام میدهیم این است که همه چیز را از نظر مقدار کمتر یا برابر با $C$ در آستانه قرار دهیم، اما چگونه این محدودیت راهحل استاندارد حداقل مربعات $\hat را تغییر میدهد. {\boldsymbol \alpha}$ به شکل بسته؟ | تنظیم مجموع مربعات محدودیت |
73858 | من از منحنیهای ROC برای مقایسه روشهای مختلف استفاده میکنم، اما مطمئن نیستم که آیا نیاز به شبیهسازی مجدد مجموعه دادهها با استفاده از دانههای مختلف در R به منظور کاهش مشکل تصادفی برای یک خروجی خاص دارم یا خیر. در اینجا یک طرح کلی از شبیه سازی من است: 1. تابع 'generate.data' برای شبیه سازی داده های برخی از توزیع ها استفاده می شود، و با شبیه سازی، من می دانم که کدام داده ها مثبت واقعی هستند. ** مولد اعداد تصادفی با ثابت کردن seed در R** کنترل می شود. 2. تابع «check.models» برای آزمایش در مجموع 5 روش، و برگرداندن مقادیر استفاده شده برای رسم منحنی ROC برای هر روش استفاده می شود. همچنین برای هر منحنی (روش)، AUC گزارش شده است. 3. تابع 'plot.roc' برای رسم استفاده می شود. در مرحله شماره 1، برخی عوامل دیگر برای تغییر وجود دارد تا داده ها تحت «جایگزین» های مختلف قرار گیرند. وقتی مراحل #1 و #2 بالا را با استفاده از «seed=123» اجرا کردم و روشی را با بالاترین AUC انتخاب کردم، یک مجموعه از نتایج را دریافت کردم. با این حال، وقتی با استفاده از یک دانه دیگر (مثلاً «seed=456») دوباره اجرا میکنم، مجموعه دیگری از نتایج را دریافت میکنم **که با اولین اجرا یکسان نیست**. بنابراین، من فکر میکنم به شدت باید شبیهسازی خود را روی «seed»های مختلف در R اجرا کنم تا دادهها را در مرحله #1 تولید کنم، به طوری که مسئله «تصادفی» استفاده از یک مجموعه داده خاص کاهش مییابد. درست میگم؟ اگر چنین است، پس باید میانگین AUC را برای هر روش در سراسر (مثلاً 1000) شبیه سازی گزارش کنم و بالاترین را در بین روش های مقایسه شده انتخاب کنم؟ با تشکر | منحنی های ROC و AUC در شبیه سازی برای مقایسه مدل ها |
32220 | من 9 بردار داده عددی دارم. من می خواهم برای این 9 بردار نمودارهای همبستگی ایجاد کنم. با این حال برخی از بردارها دارای طول متفاوتی نسبت به برخی دیگر هستند - برخی تا 240 مشاهده دارند در حالی که برخی دیگر فقط 159 مشاهده دارند. R فقط می تواند نمودارهای همبستگی برای بردارهایی با طول یکسان ایجاد کند. برای اینکه طول بردارها یکسان باشد، من فقط باید از این استفاده کنم: طول(x) = طول(y) مشکل این است که این بردار تا 81 مشاهده از برخی بردارها را برش می دهد. آیا راهی برای حل این مشکل وجود دارد، به جز حذف مشاهدات؟ اگر لازم است مشاهدات را قطع کنم، چگونه می توانم تعیین کنم کدام مشاهدات را قطع کنم؟ | نمودارهای همبستگی با مقادیر گمشده |
114441 | من با مجموعه داده Abalone در R بازی می کنم و این مقاله را دنبال می کنم. مجموعه داده دارای 8 متغیر است که برای پیش بینی تعداد حلقه ها در نظر گرفته می شود. برای یافتن همبستگی زوجی، پست وبلاگ این کار را انجام می دهد: as.matrix(cor(na.omit(abalone[,-1]))) و به این نتیجه می رسد که داده ها به شدت همبستگی دارند. سوال من این است که چگونه به این نتیجه می رسند؟ برای رسیدن به این نتیجه باید به دنبال چه اطلاعاتی باشم؟ در اینجا کد > aburl = 'http://archive.ics.uci.edu/ml/machine-learning-databases/abalone/abalone.data' > abnames = c('sex','length','diameter' ,'height','weight.w','weight.s','weight.v','weight.sh','rings') > abalone = read.table(aburl, header = F , sep = ',', col.names = abnames) > as.matrix(cor(na.omit(abalone[,-1]))) قطر قطر ارتفاع وزن.w وزن. طول حلقه s weight.v weight.sh 1.0000000 0.9868116 0.8275536 0.9252612 0.8979137 0.9030177 0.8977056 0.5567196 قطر 0.9868116 1.0000000 0.8336837 0.9254521 0.8931625 0.8931625 0.8931625 0.899 0.5746599 قد 0.8275536 0.8336837 1.0000000 0.8192208 0.7749723 0.7983193 0.8173380 0.5574673 0.5574673 0.5574673 وزن. 5574673 وزن. 0.8192208 1.0000000 0.9694055 0.9663751 0.9553554 0.5403897 وزن.s 0.8979137 0.8931625 0.7749723 0.77497230050050. 0.9319613 0.8826171 0.4208837 وزن.v 0.9030177 0.8997244 0.7983193 0.9663751 0.9319613 1.00000000000000000 0.00000000000 0.9319613 0.8977056 0.9053298 0.8173380 0.9553554 0.8826171 0.9076563 1.0000000 0.6275740 حلقه 0.5567194 0.5567194 0.5567194 0.5567194 0.556700000 0.5403897 0.4208837 0.5038192 0.6275740 1.0000000 > pairs(abalone[,-1] $ و بقیه متغیرهای تصادفی $\sim \ مستقل از یکدیگر هستند. mathcal{N}(0,\sigma^2)$. اجازه دهید $m_1({\bf Z})$ و $m_2({\bf Z})$ توابعی از ${\bf Z} = (Z_1,\ldots,Z_K)$ باشند به طوری که $m_1({\bf Z })$ متغیر تصادفی با بزرگترین قدر و $m_2({\bf Z})$ متغیر تصادفی با دومین قدر بزرگ در بین متغیرهای تصادفی $K$. من در تلاش برای پیدا کردن میانگین نسبت $R = \frac{|m_2({\bf Z})|}{|m_1({\bf Z})|}$ هستم. **Q1:** رویداد $m_1({\bf Z})=0$ معادل بردار ${\bf Z}= {\bf 0}$ است و بنابراین با احتمال صفر رخ میدهد. بنابراین، من فرض کردم که $R$ به خوبی تعریف شده است. محدوده $R$ $(0,1]$ است. بنابراین، میانگین $R$ باید وجود داشته باشد. آیا من در فرض وجود میانگین صحیح هستم؟ **Q2:** اگر میانگین وجود دارد، عبارت برای میانگین با $$ E[R]= \int\limits_{-\infty}^{\infty}\ldots\int\limits_{-\infty}^{\infty} داده میشود \frac{|m_2({\bf z})|}{|m_1({\bf z})|} \frac{1}{(2\pi \sigma^2)^{K/2}} \exp \\{-\frac{(z_{1}-\mu)^2+\sum_{i=2}^{K}z_{i}^2}{2\sigma^2}\\} dz_{1}\ldots dz_{K} به طور کلی، برای $ K> 2 $، این انتگرال را نمی توان به صورت بسته ارزیابی کرد و آیا ادغام عددی حتی برای مقادیر $K> 2 $ امکان پذیر است. **Q3:** در تلاشم برای پاسخ به Q2، انتگرال $K$-بعدی را بر حسب انتگرال های تک بعدی مکرر بیان کردم این بود که سه حالت زیر را در نظر بگیریم. = Z_1$ و $E_1$ میانگین شرطی نسبت نماد زمانی که $m_1({\bf Z}) = Z_1$ باشد. $Z_1$ دومین قدر بزرگ را دارد، یعنی $m_2({\bf Z}) = Z_1$. فرض کنید $P_2$ احتمال شرطی $m_2({\bf Z}) = Z_1$ باشد و $E_1$ میانگین شرطی نسبت نماد زمانی که $m_2({\bf Z}) = Z_1$ باشد. 3. $Z_1$ نه بزرگترین و نه دومین قدر بزرگ را دارد. فرض کنید $P_3$ احتمال شرطی باشد که این مورد است و $E_3$ میانگین شرطی زمانی که این اتفاق میافتد. سپس، $E[R] = E_1P_1+E_2P_2+E_3P_3$. من توانستم هر یک از این اصطلاحات را به صورت انتگرال های تک بعدی مکرر با محدودیت های مناسب بیان کنم. **آیا این رویکرد درستی است؟** عبارات هر یک از اصطلاحات در زیر آورده شده است. $E_1 = \int\limits_{-\infty}^{\infty} \frac{1}{|z_1|} \frac{1}{\sqrt{2\pi \sigma^2}} e^{-\ frac{(z_1-\mu)^2}{2 \sigma^2}} (K-1) \int\limits_{-|z_1|}^{|z_1|} \frac{|z_2|}{\sqrt{2\pi \sigma}} e^{-\frac{z_2^2}{2 \sigma^2}} \left[ \int\limits_{-|z_2|} ^{|z_2|} \frac{1}{\sqrt{2\pi \sigma^2}} e^{-\frac{z^2}{2\sigma^2}} dz\right]^{K-2} dz_{2} dz_{1}$، که در آن $\Phi(.)$ تابع توزیع استاندارد گاوسی است. با استفاده از تغییر متغیرهای $x=\frac{z_1-\mu}{\sigma}$ و $y=\frac{z_2}{\sigma}$، $E_1 =\int\limits_{-\infty} داریم. {\infty} \frac{1}{|x+\frac{\mu}{\sigma}|} \phi(x) (K-1) \int\limits_{-|x+\frac{\mu}{\sigma}|}^{|x+\frac{\mu}{\sigma}|} |y| \phi(y) \left[ 2\Phi( |y|) -1 \right]^{K-2} dy dx$ به طور مشابه، $P_1 = (K-1) \int\limits_{-\infty}^ {\infty} \phi(x) \int\limits_{-|x+\frac{\mu}{\sigma}|}^{|x+\frac{\mu}{\sigma}|} \phi(y) \left[ 2\Phi( |y |) -1 \right]^{K-2} dy dx $, $E_2=\int\limits_{-\infty}^{\infty} \frac{1}{|x|} (K-1) \phi(x) \int\limits_{-|x|-\frac{\mu}{\sigma}}^{|x|-\frac{\mu}{\sigma}} |y+ \frac{\mu}{\sigma}| \phi(y) \left[ 2\Phi\left( \Bigg|y+\frac{\mu}{\sigma} \Bigg|\right) -1\right]^{K-2} dy dx$, $ P_2 = (K-1)\int\limits_{-\infty}^{\infty} \phi(x) \int\limits_{-|x|-\frac{\mu}{\sigma}}^{|x|-\frac{\mu}{\sigma}} \phi(y) \left[ 2\Phi\ left( \Bigg|y+\frac{\mu}{\sigma} \Bigg|\right) -1 \right]^{K-2} dy dx$, $E_3=(K-1)(K-2)\int\limits_{-\infty}^{\infty} \frac{1}{|x|} \phi(x) \int\limits_{-|x |}^{|x|} |y| \phi(y) \left[ \Phi\left( |y|-\frac{\mu}{\sigma} \right) -\Phi \left( -|y|-\frac{\mu}{\sigma } \right)\right] \left[ 2\Phi\left( |y|\right) -1\right]^{K-3}dydx$، و $P_3=(K-1)(K-2)\int\limits_{-\infty}^{\infty} \phi(x) \int\limits_{-|x|-\frac{\mu}{\ سیگما}}^{|x|-\frac{\mu}{\sigma}} \phi(y) \left[ \Phi\left( |y|-\frac{\mu}{\sigma} \right) -\Phi \left( -|y|-\frac{\mu}{\sigma} \right)\right] \left[ 2\Phi \left( |y|\right) -1\right]^{K-3} dy dx$. من توانستم میانگین نمونه را با تولید تعداد زیادی نمونه تصادفی $\bf Z$ بر اساس توزیع پیدا کنم. من سعی می کنم بفهمم که آیا ادغام عددی اصلا امکان پذیر است یا خیر. در استفاده از matlab برای ارزیابی عبارات برای $E_1$ تا $E_3$ و $P_1$ تا $P_3$، پاسخها با میانگین نمونه مطابقت ندارند. این آخرین معما در تحقیق من است و ورودی های شما بسیار قدردانی خواهد شد. | میانگین تابعی از متغیرهای تصادفی گاوسی $K$ |
99854 | من در حال حاضر روی یک مجموعه داده بایگانی کار می کنم (General Social Survey 1985). در یک معیار، از شرکت کنندگان خواسته می شود تا 5 ویژگی شغلی را بر اساس درجه ترجیح رتبه بندی کنند. به عبارت دیگر، شرکت کنندگان تصمیم می گیرند که در یک کار فرضی کدام ویژگی مهم ترین، کدام ویژگی مهم ترین و غیره است. من به طور خاص علاقه مند هستم که آنها 2 مورد از 5 ویژگی را رتبه بندی کنند، زیرا آنها به خوبی با ساختاری که من مطالعه می کنم مطابقت دارند. این 2 مشخصه در واقع به هر دو نقطه افراطی ساختار من وارد می شود. به عنوان مثال، اگر سازه مورد علاقه من خودمختاری شغلی بود، یکی از ویژگی ها «تصمیم گیری مهم در شغلم» و دیگری «نظارت از نزدیک» بود. در مدل من، سازه خودمختاری پیش بینی سازه دیگری در این مجموعه داده است. ساختار دیگر پیوسته است. اگر داده های اولویت مشخصه مقیاس لیکرت ساده بود، کارها بسیار آسان تر می شد. من احتمالاً سعی می کنم این دو مورد را در یک امتیاز واحد ترکیب کنم. مشکل این است که من نمی دانم چگونه این نوع رتبه بندی را برای دو ویژگی شغلی خود دوباره رمزگذاری / تجزیه و تحلیل کنم. کاری که من تاکنون انجام دادهام، محاسبه امتیاز تفاوت بین «تصمیمگیریهای مهم در شغلم» و «نظارت دقیق» است، که به من امکان میدهد ترجیح نسبی برای یکی یا دیگری داشته باشم. به من پیشنهاد می کنید چه کار کنم؟ | تبدیل متغیر مرتب شده در رتبه |
57669 | من می دانم که در مورد رگرسیون لجستیک، ما به سادگی وزن های خود را با مثال ورودی برای طبقه بندی ضرب می کنیم. اما دقیقا معادله ای که در مورد SVM محاسبه می کنیم برای پیش بینی چیست؟ من قبلاً از طریق svmclassify Matlab رفته ام و کمکی نمی کند. برای پاسخ کاملاً سپاسگزار خواهم بود. | دقیقا معادله طبقه بندی SVM برای مثال جدید چیست؟ |
104274 | فرض کنید که ما داده های زیر را داریم  من تجزیه ماتریس کوواریانس و مقدار ویژه را انجام داده ام >> means=mean(X); >> centered=X-repmat(means,10,1); >> کوواریانس=(مرکز'*مرکز)/(9); >> [V,D]=eig(کوواریانس); >> [e,i]=sort(diag(D),'descend'); >> sorted=V(:,i); e e = 1.0e+03 * 3.8861 0.4605 0.1162 0.0465 >> مرتب شده مرتب شده = 0.5080 0.5042 0.3747 -0.5893 0.0090 -0.6091 -0.70930 -0.70930 -0.6091 -0.70930 - 0.70930 -0.2747 0.2647 0.0955 0.5030 0.3941 0.7633 من همچنین توزیع درصدی را محاسبه کرده ام (e./sum(e))*100 ans = 86.1796 10.2125 2.5776 در ابتدا دو عدد را انتخاب می کنند، در مرحله اول می خواهند از 1.0303 استفاده کنند. 96% از کل واریانس، حالا لطفا چگونه می توانم برای تحلیل عاملی ادامه دهم؟ دستورات متلب همچنین کمک بصری بسیار خوب خواهد بود، با توجه به این پاسخ مراحل انجام شده در تحلیل عاملی در مقایسه با مراحل انجام شده در PCA من گیج شدم، پس لطفا برای بتن داده شده لطفا مثال عددی، چگونه می توانم ادامه دهم، نه فقط تعاریف، به مراحل عددی مشخص نیاز دارم. با تشکر از قبل ویرایش شده: چون من دو بردار ویژه اول را انتخاب کرده ام، PCA را نیز انجام داده ام. عوامل = مرتب شده (:، 1: 2) فاکتور = 0.5080 0.5042 0.0090 -0.6091 0.8560 -0.3490 0.0955 0.5030 >> PCA=X*factors PCA = 299.5739 24.856 24.856. 183.9319 36.7606 156.7749 11.6325 58.1864 17.0585 236.6723 35.3584 176.0291 68.7008 208.4237 458.42376.4237.451. 206.2131 3.4430 چگونه می توانم بارگذاری ها را محاسبه کنم؟ چگونه می توانم چرخش های متعامد را انجام دهم؟ | تحلیل عاملی برای داده های داده شده با کمک نرم افزار matlab |
32221 | من دو سری زمانی a و b دارم که می خواهم مقایسه کنم. به دلیل تفاوت دامنه آنها، ابتدا آنها را عادی می کنم. a(i)، b(i) اعداد طبیعی برای i=1،...،N دو نرمال سازی متفاوت هستند: (mean و std_dev هر دو به کل سری زمانی اشاره دارند) 1) `a'(i) := a( i) / mean(a)` _goal_ : mean(a') = 1 2) `a'(i) := [ a(i) - mean(a) ] / std_dev(a )` _goal_ : عادی سازی معمول چیزی که من را گیج می کند این است که چگونه معانی پس از آن تبدیل ها متفاوت است؟ آیا تحول اول اصلاً معنی دارد؟ | چگونه دو سری زمانی را برای مقایسه عادی کنیم؟ |
57661 | من سعی می کنم یک توزیع احتمال شرطی $P(B|A)$ را روی متغیرهای پیوسته که چیزی شبیه به این هستند ارائه کنم: A B ---------- 2 5 5 7 8 10 10 15 12 25 .......... و غیره. چگونه می توانم پیدا کنم که چه توزیعی متناسب با پرونده من است؟ از آنچه من میدانم، این یک فرآیند 2 مرحلهای است. اول این است که من سعی میکنم از کدام توزیع مناسب برای مدلسازی استفاده کنم و سپس پارامترها را با فرض آن توزیع که میتوان در محاسباتم استفاده کرد، تخمین زد. | تخمین توزیع احتمال شرطی از داده های عددی |
95570 | سلام من مطمئن نیستم که چگونه احتمالات پیش بینی شده را برای مدل رگرسیون لجستیک خود تفسیر کنم. من سعی می کنم بررسی کنم که آیا این متغیرها بر شانس چاق شدن تأثیر می گذارد یا خیر. چگونه این نتایج را تفسیر کنم؟ REGION مرجع- شرق - شمال 0.62 - جنوب 0.54 - غرب 0.47 پیوند پیشنهادی که باعث تکراری شدن سؤال من می شود روشنگر است، اما معنی آنها را در مقایسه با مقوله مرجع توضیح نمی دهد. نسبت شانس من این است که بدانید غرب (شانس = 0.5) کمتر از شرق احتمال چاق شدن داشت. چه چیزی می توانم از احتمال پیش بینی شده استنباط کنم؟ یا اینطور نیست؟ آیا فقط می گویید احتمال چاقی و زندگی در غرب 0.47 است؟ خیلی ممنون :-) | برای رگرسیون لجستیک، احتمالات پیش بینی شده را چگونه تفسیر می کنید؟ |
70788 | آیا بستههای یکپارچهسازی موجود (یا مشابه) Weka و/یا RapidMiner در Informatica PowerCenter/Developer وجود دارد؟ میدانم که در PowerCenter 9.x تغییر شکلهای جاوا وجود دارد، بنابراین میتوانم از Weka API مستقیماً به عنوان کد استفاده کنم، اما فقط نمیدانم که آیا کسی از پروژههای موجود مانند این خبر دارد تا چرخ را دوباره اختراع نکنم یا بتوانم روی آن بایستم. شانه های شخص دیگری | ادغام Weka و/یا RapidMiner در Informatica PowerCenter/Developer |
34636 | من تا حدودی در استفاده از رگرسیون لجستیک تازه کار هستم، و با اختلاف بین تفسیرهایم از مقادیر زیر که فکر میکردم یکسان هستند، کمی گیج شدهام: * مقادیر بتای توانمند * احتمال نتیجه پیشبینی شده با استفاده از مقادیر بتا. در اینجا یک نسخه ساده شده از مدلی است که من استفاده می کنم، که در آن سوءتغذیه و بیمه هر دو دوتایی هستند، و ثروت پیوسته است: Under.Nutrition ~ بیمه + ثروت مدل من (واقعی) مقدار بتای توانمند 0.8 را برای بیمه برمی گرداند. به این صورت تعبیر می شود: > احتمال سوءتغذیه برای یک فرد بیمه شده 0.8 > برابر احتمال سوءتغذیه برای یک فرد بیمه نشده است. فردی. با این حال، زمانی که من تفاوت احتمالات را برای افراد با قرار دادن مقادیر 0 و 1 در متغیر بیمه و مقدار میانگین ثروت محاسبه میکنم، تفاوت در سوءتغذیه فقط 0.04 است. که به صورت زیر محاسبه می شود: احتمال سوء تغذیه = exp(β0 + β1*بیمه + β2*ثروت) / (1+exp(β0 + β1*بیمه + β2*ثروت)) واقعا ممنون می شوم اگر کسی توضیح دهد که چرا این مقادیر متفاوت هستند، و چه تفسیر بهتری (به ویژه برای مقدار دوم) ممکن است باشد. * * * **ویرایش های توضیح بیشتر** همانطور که متوجه شدم، احتمال سوءتغذیه برای یک فرد بدون بیمه (که B1 مربوط به بیمه است) این است: Prob(Unins) = exp(β0 + β1*0 + β2* ثروت) / (1+exp(β0 + β1*0+ β2*ثروت)) در حالی که احتمال سوءتغذیه برای شخص بیمه شده عبارت است از: Prob(Ins)= exp(β0 + β1*1 + β2*ثروت) / (1+exp(β0 + β1*1+ β2*ثروت)) احتمال سوءتغذیه برای یک فرد بدون بیمه در مقایسه با یک فرد بیمه شده is: exp(B1) آیا راهی برای ترجمه بین این مقادیر (از نظر ریاضی) وجود دارد؟ من هنوز با این معادله کمی گیج هستم (جایی که احتمالاً باید مقدار متفاوتی در RHS داشته باشم): Prob(Ins) - Prob(Unins) != exp(B) به زبان عامیانه، سوال این است که چرا اینطور نیست بیمه کردن یک فرد، احتمال کمتغذیه شدن او را به همان اندازه که نسبت شانس نشان میدهد تغییر میدهد؟ در دادههای من، Prob(Ins) - Prob(Unins) = 0.04، که در آن مقدار بتا نمایی 0.8 است (پس چرا تفاوت 0.2 نیست؟) | تفسیر پیش بینی های ساده به نسبت شانس در رگرسیون لجستیک |
52103 | آیا راهی برای تعیین دو عبارت رهگیری تصادفی متفاوت برای دو گروه فرعی از افراد در یک مدل ترکیبی وجود دارد؟ دلیل علاقه من این است که به نظر می رسد تنوع بین فردی یک گروه از موضوعات در مورد تکلیف من بیشتر از تنوع بین فردی گروه دیگر است. من از lmer استفاده میکنم و در حال حاضر فاکتور موضوع را بهعنوان یک قطع تصادفی مشخص میکنم، که همه شرکتکنندگان را در یک تخمین واحد جمع میکند، اما میخواهم دو تخمین مجزا برای دو گروه فرعی داشته باشم. متشکرم | رهگیری تصادفی برای گروه های مختلف افراد |
105634 | من داده های زیر را دارم: 2 شرط - تجربی و کنترل. 20 شرکت کننده که هر کدام 3 نتیجه برای هر شرایط دارند. مانند جدول زیر: | وضعیت | شرکت کننده شماره 1 | شرکت کننده شماره 2 | شرکت کننده شماره 3 | |--------------|---------------|----------------| ----------------| | تجربی | نتیجه شماره 1 | نتیجه شماره 1 | نتیجه شماره 1 | | | نتیجه شماره 2 | نتیجه شماره 2 | نتیجه شماره 2 | | | نتیجه شماره 3 | نتیجه شماره 3 | نتیجه شماره 3 | |--------------|---------------|----------------| ----------------| | کنترل | نتیجه شماره 1 | نتیجه شماره 1 | نتیجه شماره 1 | | | نتیجه شماره 2 | نتیجه شماره 2 | نتیجه شماره 2 | | | نتیجه شماره 3 | نتیجه شماره 3 | نتیجه شماره 3 | |--------------|---------------|----------------| ----------------| من باید بین 2 شرط را به گونه ای مقایسه کنم که در نظر بگیرد داده ها در مورد شرکت کنندگان جفت شده اند (در نظر بگیرید که یک شرکت کننده در هر دو شرایط شرکت کرده است). به نظر من بهترین رویکرد آنووا با اندازه گیری های مکرر 2 عاملی است، اما می خواهم مطمئن باشم و بدانم آیا راه های دیگری برای تجزیه و تحلیل این نوع داده ها وجود دارد یا خیر. همچنین، می خواهم بدانم اگر ترتیب نتایج (1-2-3) مهم است، کدام آزمون را انتخاب کنم. من از هر ورودی قدردانی خواهم کرد! متشکرم | تست زوجی با اندازه گیری های مکرر |
21935 | من مجموعه داده ای با دماهای ماهانه برای 4 سال مختلف دارم و می خواهم آزمایش کنم که آیا تفاوت قابل توجهی بین سال ها وجود دارد یا خیر. همانطور که دادهها را برای سایتهای مختلف جمعآوری میکردم، فکر میکردم که آیا امکانی برای انجام محاسبات یکباره وجود دارد یا باید آن را برای هر سایت تکرار کنم. من از نرم افزار آماری R استفاده می کنم. در غیر این صورت، می توانید راهی برای ترسیم این به من نشان دهید؟ دادههای من به این شکل هستند (من مقداری از دست رفته دارم): کد: > head(MeanTemp) سال سایت ماه دما 1 1 2008 ژانویه NA 2 1 2008 فوریه NA 3 1 2008 مارس NA 4 1 2008 آوریل NA 5 1 2008 مه 16.2254 1 2008 ژوئن 18.53764 خیلی ممنون | چگونه تفاوت دما بین سال ها و سایت ها را آزمایش کنیم؟ |
60015 | من سعی می کنم یک مدل طبقه بندی از یک مجموعه داده بزرگ (50 میلیون نمونه) با یک متغیر مستقل طبقه بندی (pred) و یک متغیر وابسته باینری (کلاس) بسازم. متغیر وابسته بسیار منحرف است - فقط 2K نمونه مثبت. چیزی که من را گیج می کند، احتمال بسیار پایین پیش بینی شده مدل رگرسیون لجستیک است. «(glm(class~pred,family=binomal))،` در مقایسه با برآورد احتمال شرطی استاندارد (prop.table(table(class,pred),2)[2,]): 1 2 3 4 5 6 ... 7.898106e-03 5.133151e-03 3.332895e-03 2.162637e-03 1.402706e-03 9.095645e-04 (glm). 5.922985e-04 (mle) ... آیا این تفاوت های مورد انتظار است؟ آیا باید از روشی غیر از رگرسیون لجستیک استفاده کنم (نتایج مشابه با locfit ناپارامتریک است)؟ آیا گزارش فقط احتمالات مشروط درست است؟ | رگرسیون لجستیک در مقابل MLE احتمال شرطی |
97154 | من نیاز به تولید اعداد تصادفی دو جمله ای دارم: > برای مثال، اعداد تصادفی دو جمله ای را در نظر بگیرید. یک عدد تصادفی دو جمله ای > تعداد سرها در N پرتاب یک سکه با احتمال p از یک سر در > هر پرتاب منفرد است. اگر N عدد تصادفی یکنواخت را در بازه > (0،1) تولید کنید و عدد را کمتر از p بشمارید، آنگاه شمارش یک عدد تصادفی دو جمله ای > با پارامترهای N و p است. در مورد من، N من می تواند از 1*10^3 تا 1*10^10 باشد. p من حدود 1*10^(-7) است. اغلب n*p من حدود 1*10^(-3) است. یک پیاده سازی ساده برای تولید چنین اعداد تصادفی دو جمله ای از طریق حلقه ها وجود دارد: public static int getBinomial(int n, double p) { int x = 0; for(int i = 0; i < n; i++) { if(Math.random() < p) x++; } بازگشت x; } این پیاده سازی بومی بسیار کند است. من روش رد پذیرش/وارونگی [1] را که در بخش Colt (http://acs.lbl.gov/software/colt/) پیاده سازی شده است، امتحان کردم. بسیار سریع است، اما توزیع تعداد تولید شده آن تنها زمانی با پیاده سازی بومی مطابقت دارد که n*p خیلی کوچک نباشد. در مورد من وقتی n*p = 1*10^(-3)، پیادهسازی بومی همچنان میتواند عدد 1 را پس از اجراهای زیاد ایجاد کند، اما روش پذیرش/وارونگی هرگز نمیتواند عدد 1 را ایجاد کند (همیشه 0 را برمیگرداند). کسی میدونه مشکل اینجا چیه؟ یا می توانید الگوریتم تولید اعداد تصادفی دوجمله ای بهتری را پیشنهاد کنید که بتواند پرونده من را حل کند. [1] V. Kachitvichyanukul، B.W. اشمایزر (1988): تولید متغیر تصادفی دو جمله ای، ارتباطات ACM 31، 216-222. | یک الگوریتم تولید اعداد تصادفی دوجمله ای که زمانی کار می کند که n*p بسیار کوچک باشد |
114440 | من یک مرد اقتصاد/آمار هستم که از مقدار زیادی بهینه سازی (حداکثر احتمال، حداکثر احتمال شبیه سازی شده)، بهینه سازی محدود (برنامه نویسی ریاضی با شرایط تعادل)، برنامه نویسی پویا و غیره استفاده می کنم. به نظر من (در این مورد بحث کنید و اگر اشتباه می کنم به من نشان دهید)، R برای بهینه سازی عالی نیست زیرا تمایز خودکار یا حل کننده های عالی برای مسائل ابعاد بالاتر ندارد. برنامههایی مانند AMPL (میتواند به هر حلکنندهای در کلاس جهانی متصل شود) یا حتی Matlab با حلکننده KNITRO باعث نمیشود شما را به طور واضح وارد یک الگوی پیچیده jacobian، hessian یا sparsity کنید، اما R (حتی IPOPTR) شما را مجبور به انجام این کار میکند. به این ترتیب، من R را برای بهینهسازی ضعیف میدانم. آیا پایتون بهتر است؟ آیا قابلیت تمایز خودکار را دارد؟ آیا می تواند به حل کننده های کلاس جهانی متصل شود؟ هر گونه اطلاعات در این مورد عالی خواهد بود. در غیر این صورت، می ترسم مجبور باشم کارم را در AMPL یا CPLEX انجام دهم، که نمی دانم، و یادگیری یک زبان دیگر بالاترین اولویت من نیست مگر اینکه نیاز داشته باشم. | بهینه سازی در R در مقابل پایتون، تمایز محدود، بدون محدودیت و خودکار؟ |
113149 | من نمیدانستم که آیا کسی میتواند مرجعی (در صورت وجود چنین چیزی) برای ویژگیهای نظری تخمینهای نقطهای بیز (EB) ارائه دهد، به این معنا که در مورد ریسک آنها در شرایط منظمی خاص چه میتوان گفت، برای موارد کلی. برای مثال، فرض کنید یک پیشین داریم که از نظر ساختاری صحیح است، اما دارای یک فراپارامتر ناشناخته است. بنابراین با استفاده از رویکرد EB، فراپارامتر را تخمین زده و آن را وصل می کنیم، در نهایت، فرض کنید، EB MMSE را برای پارامتر مورد نیاز دریافت می کنیم. آیا می توانیم بگوییم که همیشه بهتر از استفاده از حداکثر احتمال (به معنای mse) خواهد بود؟ | ویژگی های نظری کلی تخمین های بیز تجربی |
102940 | به من گفته شده است که ما باید عوامل کنترلی را که تأثیر قابل توجهی بر متغیر وابسته نشان میدهند را از مدل حذف کنیم. همانطور که می دانم متغیرهای کنترلی متغیرهایی هستند که بر DV تاثیر دارند. بنابراین، ما باید آنها را در مطالعه قرار دهیم. بنابراین، من دچار سردرگمی هستم که چرا باید آنها را از مدل حذف کنیم، در صورتی که تأثیر قابل توجهی بر DV نشان دهند. در حالی که آنها از آنجایی که پتانسیل بالایی برای تأثیرگذاری بر DV دارند شامل می شوند؟ | آیا متغیرهای کنترلی قابل توجه باید از تجزیه و تحلیل آماری به طور کلی و SmartPLS به طور خاص حذف شوند؟ |
21932 | آیا کسی می داند چگونه پهنای باند را با GCV برای هسته Epanechnikov در R یا Matlab انتخاب کنم؟ خیلی ممنون | هسته Epanechnikov و GCV |
60013 | با عرض پوزش برای عنوان طولانی، اما مشکل من کاملا مشخص است و توضیح آن در یک عنوان دشوار است. من در حال حاضر در حال یادگیری در مورد مدل روی (تجزیه و تحلیل اثر درمان) هستم. یک مرحله اشتقاق در اسلایدهای من وجود دارد که من آن را نمی فهمم. ما نتیجه مورد انتظار را با درمان در گروه درمان محاسبه میکنیم (ساختگی D درمان است یا نه درمان). این به صورت \begin{align} E[Y_1|D=1] \end{align} نوشته میشود زیرا $Y_1=\mu_1 + U_1$ میتواند به صورت \begin{align} E[Y_1|D=1] بازنویسی شود = E[\mu_1+U_1|D=1]\\\ &=\mu_1+ E[U_1|D=1] \end{align} قبل از اینکه گفتیم که $D=1$ اگر $Y_1>Y_0$ به شرح زیر است: $Y_1-Y_0>0$$\mu_1+U_1-(\mu_0-U_0)>0$$(\mu_1+U_1)/\sigma-(\ mu_0-U_0)/ \sigma >0$ $Z-\epsilon>0$ بنابراین $D=1$ اگر $\epsilon<Z$ بنابراین اینطور است که \begin{align} E[Y_1|D=1] &=\mu_1 + E[U_1|\epsilon<Z] \end{align} بیشتر مشخص است که \begin{align} \begin{bmatrix } U_1 \\\ U_0 \\\ \epsilon \end{bmatrix}=N\left( \begin{bmatrix} 0 \\\ 0 \\\ 0 \end{bmatrix}، \begin{bmatrix} \sigma_1^2 & \sigma_{10} & \sigma_{1\epsilon} \\\ \sigma_{10} & \sigma_{0}^2 و \sigma_{ 0\epsilon} \\\ \sigma_{1\epsilon} & \sigma_{0\epsilon} و \sigma_{\epsilon}^2 \end{bmatrix}\right) \end{align} بنابراین نتیجه میشود: $P(D=1)=P(\epsilon<Z)=\Phi(Z)$ پس اکنون میآید سوال من، اسلایدها می گویند که \begin{align} \mu_1 - E[U_1|\epsilon<Z] =\mu_1 - \sigma_{1\epsilon} \frac{\phi(Z)}{\Phi(Z)} \end{align} و من نمیدانم چرا؟ من می دانم که اگر دو متغیر تصادفی از توزیع نرمال دو متغیره استاندارد پیروی کنند: $E[u_1|u_2)=\rho u_2$ پس $E[u_1|u_2>c)=E[\rho u_2|u_2>c]=\ rho E[u_2|u_2>c)=\rho\frac{\phi(c)}{1-\Phi(c)}$ بنابراین من انتظار داشتم یک علامت مثبت و نه منفی؟ همچنین چرا از کوواریانس $\sigma_{1\epsilon}$ استفاده می کنیم و از همبستگی $\rho$ استفاده نمی کنیم؟ بنابراین انتظار داشتم چیزی شبیه \begin{align} \mu_1 - E[U_1|\epsilon<Z] =\mu_1 + \rho \frac{\phi(Z)}{\Phi(Z)} \end{align } من از این واقعیت آگاه هستم که اگر برش را از بالا انجام دهم $1-\Phi(c)$ تبدیل به $\Phi(c)$ می شود. | ویژگیهای دو متغیره استاندارد معمولی و احتمال شرطی ضمنی در مدل روی |
52109 | تصور کنید من در حال انجام آزمایشی هستم که در آن میخواهم ترکیب سلولی نمونههای تومور را بررسی کنم. 3 نمونه با فنوتیپ A (به عنوان مثال متاستاز) و 3 نمونه با فنوتیپ B (مثلاً متاستاز نیستند) نمونههای با فنوتیپ A شامل (به ترتیب) هستند. 30 درصد، 32 درصد و 33 درصد «سلول های سبز»، 28، 27 درصد و 28 درصد «سلول های آبی» و 42 درصد، 41 درصد و 39 درصد «گلبول های قرمز». نمونه های با فنوتیپ B شامل (به ترتیب) 10، 9 و 11 «سلول سبز»، 50، 49 و 47 درصد «سلول های آبی» و 40، 42 درصد و 42 درصد «گلبول های قرمز» است. چگونه می توانم بفهمم که آیا درصد متفاوتی از انواع سلول های مختلف بین انواع مختلف تومور (مانند بین فنوتیپ ها) وجود دارد؟ به طور معمول به 3 تست t نیاز دارد. با این حال، چون %s هستند، فرض میکنم که مفروضات یک آزمون t برآورده نمیشوند. آیا آزمون مشابهی برای %s وجود دارد؟ | آزمون آماری درصد داده ها با تکرار |
99993 | من در حال مطالعه انقراض در زبانهای آسترونیزی هستم و سعی میکنم بفهمم که آیا زیرمجموعهای از 384 زبان به طور تصادفی با توجه به خطر انقراض از جمعیت 1249 زبانی انتخاب شدهاند. خطر انقراض می تواند 10 مقدار متفاوت داشته باشد. اما دو مقدار مورد انتظار اول بسیار کوچک هستند (هر دو 0.40) و بیشتر مربع کای را تشکیل می دهند: مشاهده شده | 10 | 6 | 6 | 22 | 113 | 64 | 70 | 20 | 5 | 19 مورد انتظار | 0.40 | 0.40 | 5.63 | 10.86 | 59.54 | 129.54 | 90.11 | 25.74 | 12.07 | 13.68 چی مربع | 229.0| 77.9 | 0.0 | 11.4 | 48.0 | 33.1 | 4.5 | 1.3 | 4.1 | 2.1 سهم ----------- | ------------------------------------------------ ------------------------- مربع چی: 411.44 مقدار بحرانی (آلفا = 0.01): 21.67 با 9 درجه آزادی من شنیده ام که این است بهترین حالت اگر مقادیر مورد انتظار بالای 5 باقی بماند (و اگر اینطور نباشد، ممکن است تصحیح یتس را در نظر بگیرید). چه اصلاحی را پیشنهاد می کنید؟ | مربع کای چند جمله ای با مقادیر مورد انتظار کوچک |
113140 | من می خواهم میزان مصرف مواد مغذی مردان و زنان را با هم مقایسه کنم. اما فرض ماتریس کوواریانس واریانس یکسان نقض می شود و بنابراین نمی توان از آزمون هتلینگ دو نمونه استفاده کرد. چگونه می توانم دریافت ها را مقایسه کنم؟ | نقض فرض دو نمونه آزمون هتلینگ |
104278 | من به موضوع راهزنان bayesian نگاه کردم تا یک ابزار آزمایش ساده برای بهینه سازی عنوان ایجاد کنم. UCB1 به اندازه کافی آسان به نظر می رسید تا اینکه متوجه شدم احتمالاً مشکلی با پاداش های تاخیری در راه اندازی واقعی وجود دارد. من به هیچ وجه ریاضیدان نیستم. شاید کسی بتواند به من در جهت درست راهنمایی کند که چگونه این موضوع را مدیریت کنم؟ ممنون والنتین | راهزنان بیزی با پاداش های تاخیری |
102944 | ساخت مدل پیش بینی چقدر کارآمد است. با این حال، هر جرمی به سه عامل بستگی دارد: زمان، مکان مکانی و رفتار مردم. از نظر آماری، ما نمی توانیم رفتار افراد را اندازه گیری کنیم (نمی توانیم از این داده های خصوصی استفاده کنیم). یافتن نتایج خوب و دقیق با استفاده از سیستمهای پیشبینی مکان مکانی/سری زمانی دشوار است. از نظر آماری، آیا استفاده از یک بعد (مکان-مکانی یا سری زمانی) برای تحلیل و پیش بینی رویدادها (مانند جنایات) معتبر است؟ | مدلهای پیشبینی مکان مکانی/سری زمانی |
113142 | من از «k-means» در هر کلاس از یک مسئله طبقهبندی باینری استفاده میکنم و نمونههایی را که فاصله زیادی با مرکز ویژگیهای من دارند (21 ویژگی و مشکل 21 بعد) را قبل از درج مجموعه دادهها در یک شبکه عصبی حذف میکنم. پس از طراحی مدل شبکه عصبی، اکنون می خواهم از این مدل برای یک مجموعه داده جدید (نمونه خارج) استفاده کنم. همانطور که می دانید ما باید از پارامترهای تشخیص پرت در مرحله هر فرآیند برای داده های نمونه استفاده کنیم (مانند عادی سازی `x-min(x)/max(x)-min(x)` که از `max(x)` و` استفاده می کند. min(x)` برای عادی سازی نمونه خارج). چه پارامترهایی از «الگوریتم k-means» را باید برای نمونه استفاده کنم و چگونه می توانم آن را در «MATLAB» انجام دهم؟ با تشکر | تشخیص پرت با استفاده از k-means در یک مسئله طبقه بندی باینری |
102949 | این سوال کاملا تئوری است به این معنا که من هیچ داده واقعی ندارم. فرض کنید من در حال طراحی یک مطالعه هستم که در آن N جفت (X,Y) را اندازهگیری میکنم، سپس هدف این است که یک مدل پیشبینیکننده (مثلا رگرسیون خطی) بین X و Y بسازم، یعنی دقت پیشبینی خوبی میخواهم، اما همچنین داشتن یک فاصله پیش بینی خوب خواهد بود. با توجه به منابع محدود، من دو انتخاب دارم: 1. N را افزایش دهم، اما X با دقت کمتری اندازه گیری می شود. یا 2. N را کاهش دهید اما X را با دقت بیشتری اندازه بگیرید. سوال این است که چگونه می توانم تعادل بین 2 مورد را پیدا کنم؟ میدانم که دادههای واقعی ارائه نکردهام، به همین دلیل است که پاسخ خاصی نمیخواهم. من فقط می خواهم بدانم مسیر فکری شما چیست؟ راه خوبی برای نزدیک شدن به این سوال چیست؟ و غیره.... **توضیح:** نمیدانم چرا برعکس میگم. X در نقاط بالا باید Y باشد. من Y را با استفاده از X پیش بینی می کنم. انتخاب من بین افزایش N یا اندازه گیری دقیق تر Y است. **اضافه شد:** اگر پاسخ شما هم حجم نمونه کوچک و هم موقعیت های اندازه نمونه مناسب را در نظر بگیرد خوب خواهد بود. | حجم نمونه بزرگتر یا اندازه گیری دقیق تر؟ |
73851 | من شرایطی دارم که 18 جلسه نمونه گیری انجام داده ام. هر جلسه در یکی از دو جریان انجام می شود. در هر جریان ده نمونه آب در فواصل مساوی در پایین دست منبع DNA میگیرم. این نمونه ها در جریان های مختلف گرفته می شوند و زیست توده های مختلفی در منبع DNA برای هر جلسه وجود دارد. بنابراین، ده اندازه گیری تکراری در یک جلسه وجود دارد. من آن را طوری تنظیم کردهام که ده اندازهگیری فاصله مجاز است در هر جلسه شیبها و وقفههای تصادفی داشته باشد. متغیرهای جریان پیوسته و زیست توده به عنوان متغیر جریان مقوله ای ثابت در نظر گرفته می شوند. مدل به این شکل است: Mod1 <- lme(DNACount ~ Distance + Flow + Stream + Biomass + Distance* Flow + Distance* Stream + Flow* Stream + Distance* Biomass + Flow* Biomass, random = ~Distance | Sample Session, data = DNASig) اگر مقادیر پیش بینی شده را در جریان های مختلف در این دو رسم کنم جریان (با استفاده از داده های جدید)، یک جریان منطقی است. برای خطوط ترسیم شده، شیب ها و بریدگی های مختلفی می بینم. با این حال، به نظر می رسد جریان دیگر شیب تصادفی ندارد. این فقط خطوط موازی را ترسیم می کند. هیچ فکری در مورد اینکه چرا این است؟ | آیا ساختار افکت های تصادفی در این مدل lme مشکلی دارد؟ |
102941 | تخمین زده می شود که وب تقریباً 5 میلیارد صفحه وب داشته باشد (http://www.worldwidewebsize.com/). چگونه میتوانید یک CDF را تخمین بزنید تا بدانید چه تعداد صفحه مورد نیاز است که مثلاً 90 درصد ترافیک را تشکیل میدهند؟ من سعی می کنم قانون Zipf را اعمال کنم اما مطمئن نیستم که چگونه آن را انجام دهم. البته قانون Zipf به یک پارامتر نیاز دارد. من می خواهم آن را تخمین بزنم. به عنوان نقطه شروع: مقادیر معمولی آن پارامتر در حوزه های دیگر چیست؟ چقدر سازگار هستند؟ سپس: با توجه به اینکه دادههای خاصی در دسترس هستند (مثلا گزارشهای درخواستهای مجموعههای کوچکی از کاربران) - چگونه میتوانیم از آنها برای تخمین پارامتر Zipf مناسب استفاده کنیم؟ آیا می توانیم از داده های PageRank (که تعداد زیادی منتشر شده و با قدرت محاسباتی کافی قابل محاسبه است) استفاده کنیم؟ آیا می توانیم از PageRank زیر مجموعه ای از وب استفاده کنیم؟ شما به عنوان یک آمارگیر چگونه تلاش می کنید تا به برخی از این پاسخ ها دست یابید؟ این سوال را به طور مشخص مطرح کنید: چند درصد از صفحات وب 90 درصد از ترافیک را دریافت می کنند؟ | تخمین توزیع ترافیک در تمام صفحات وب |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.