_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
52819
من چهار گروه سنی دارم که همگی قدهای متفاوتی را اندازه‌گیری می‌کنند: چگونه می‌توانم تفاوت بین گروه‌ها را در سطح معناداری 01/0 آزمایش کنم؟ آیا از ANOVA استفاده کنم؟ همچنین - چگونه می توانم مشخص کنم که کدام گروه با سایرین در سطح معناداری 0.01 متفاوت است؟
آزمایش تفاوت ها، آیا از ANOVA استفاده می کنم؟
55621
من یک شش گروه=[1:6] ACTid دارم و یک متغیر پیوسته در نتیجه مشاهده شده برای هر یک از اعضا گروه است: Y ACTid(1:10) Y(1:10،:) ans = 3.0000 36.8791 2.0000 71.5823 6.0000 104. 3.0000 33.4862 1.0000 1.5298 5.0000 0.1063 6.0000 157.3075 4.0000 11.4117 2.0000 3.8024 1.0000 52.3496 بهترین راه برای بررسی متغیر پیوسته چیست؟ متغیر Continuous از این مدل مشتق شده است: **UPDATE** مدل من به شکل ضربی زیر است: > اجازه دهید نمادگذاری را با اجازه دادن به تعداد واحدهای میکروب (cfu) که توسط دست پرستار > جمع آوری می شود، ساده کنیم، $Y$ نامیده شود. . **ACTid** **n** را در $i=1:n > $ > > \begin{equation} Y_{i}=\displaystyle \lambda_i V_i A_i-\beta_iY_{i-1} > \end را تعیین می‌کند {equation} > > جایی که مقادیر از طریق نمونه برداری مونت کارلو برای هر اجرا نمونه برداری می شوند: > $h=lognormal~(1.5,0.1)$، $\lambda=\Gamma(15,3)$, $\beta=$تجربی غیر- > منفی. $A=lognormal~(7,1.9)$ و $V=$غیر تجربی. انتخاب > از این پارامترها بیشتر به نوع مراقبت بستگی دارد $ACTid=1:6$;
Matlab یا R: رابطه بین متغیر طبقه ای و پیوسته
50418
من در تجزیه و تحلیل مجموعه داده‌های آزمایش زیر کمی مشکل دارم: ما 4 تیمار (کنترل، غلظت1، conc2، conc3) را برای هر 5 گیاه برای مجموع 20 گیاه اعمال کردیم. ما آزمایش را 3 بار به طور مستقل تکرار کردیم ('block'). وقتی داده‌ها را تجسم کردم، دیدم که تنوع مهمی بین بلوک روی متغیر پاسخ وجود دارد، بنابراین تصمیم گرفتم اثر بلوک را به‌صورت زیر کنترل کنم: mymodel <- aov(y ~ درمان + خطا(block)، داده = mydata) اما مطمئن نیستم که این همان کاری است که می خواهم انجام دهم. تفاوت بین موارد فوق چیست و: mymodel <- aov(y ~ درمان + خطا (درمان / بلوک)، داده = mydata) mymodel <- aov(y ~ درمان + درمان / بلوک، داده = mydata) و کدام است مناسب ترین برای تحلیل من؟ من بخش مدل افکت تودرتو را در کتاب R خواندم، اما به من کمک نکرد. هر گونه کمکی پذیرفته می شود. پیشاپیش متشکرم EDIT: ما در مجموع 60 کارخانه داشتیم، 20 تا برای هر بلوک
اثر تو در تو در مقابل تصادفی
22679
من 13 واحد مستقل مشابه دارم و باید احتمال حداقل 6 تای آنها را برای زنده ماندن برای زمانی کمتر از 1.10 محاسبه کنم. از جدولی با تخمین‌های کاپلان-میر، موارد زیر را دریافت می‌کنم. زمان 1.05614، 1.31581 عدد در معرض خطر 19، 18 عدد شکست خورده 1،1 بقا پروب. 0.474771 , 0.448395 من مقادیر قبلی و بعدی را حذف کرده ام زیرا Time=1.10 بین این دو مقدار است و P(T<1.10)=F(1.10)=F(1.05614)=1-Survival prob.=1- 0.474771= 0.525229` که احتمال آن است 1 واحد برای زنده ماندن کمتر از 1.10 ساعت؟ من نمی دانم از آن نقطه ادامه دهم.
محاسبه احتمال در تحلیل بقا
12839
من می‌خواهم یک متاآنالیز با داده‌های شمارش برای موارد درمان/کنترل (فراوانی پولیچاتوس دریایی) انجام دهم. مشکل من این است که باید از مقادیر صفر (مقدار صفر اطلاعاتی) برای میانگین و انحراف معیار برای یکی از درمان‌ها استفاده کنم، اما R یک مشکل دارد: مطالعات با مقادیر صفر برای sd.e یا sd.c وزن ندارند. در متاآنالیز». من می توانم پرونده را بر اساس خانواده ('byvar=Family') دسته بندی کنم. گزینه‌ای در «متابین» وجود دارد که می‌توانید برای مطالعات با تعداد سلول‌های صفر، یک مقدار عددی به فرکانس هر سلول اضافه کنید یا رشته کاراکتری «TA» که مخفف تصحیح تداوم بازوی درمان است، اما من می‌خواهم از «متاکانت» استفاده کنم. که این گزینه را ندارند. می توانید به من کمک کنید؟ با تشکر > datos<-read.table(file=datos_totales.csv,head=TRUE,sep=,,dec=,) > datos[10:20,] مطالعه ControlN ControlMean ControlSD TreatedN TreatedMean TreatedSD خانواده 10 علی .Gmb.S1.Inv 3 893.3333 180.36999 3 1213.33333 410.52812 Capitellidae 11 Ali.Gmb.S2.Inv 3 640.0000 348.71192 3 666.66667 220.30282 Capitellidae 12 Ali.Gmb.6636 184.75209 3 920.00000 628.64935 Capitellidae 13 Ali.Cul.S1.Ver 3 213.3333 115.47005 3 0.00000 0.00000 0.00000 Cirratulidae .VS4 Ali.VC. 160.0000 144.22205 3 40.00000 40.00000 Cirratulidae 15 Ali.Cul.S3.Ver 3 293.3333 234.37861 3 26.66667 421eul.18. 3 653.3333 532.66625 3 13.33333 23.09401 Cirratulidae 17 Ali.Cul.S2.Inv 3 706.6667 335.45988 3 26.66667 23.66667 23.666694018. Ali.Cul.S3.In 3 666.6667 674.48746 3 80.00000 80.00000 Cirratulidae 19 Ali.Gmb.S1.Vr 3 280.0000 69.28203 3 000.0000000.000. Ali.Gmb.S2.Ver 3 226.6667 220.30282 3 0.00000 0.00000 Cirratulidae > library(meta) > metaanalisis2<- metacont(TreatedN,TreatedMean,TreatedSD,ControlN,ControlN,Datavar=to,ControlN,ControlN, Control=to, label.c=Control, print.byvar=FALSE, label.e=Treatment, studlab=Study) **Mensajes de aviso perdidos In metacont(TreatedN, TreatedMean, TreatedSD, ControlN, ControlMean, : مطالعات با مقادیر صفر برای sd.e یا sd.c هیچ وزنی در متاآنالیز دریافت نمی کنید**
متاآنالیز با مقادیر صفر برای میانگین و sd
92268
تصویر زیر نمونه ای از جدول نتیجه یک همبستگی شرطی پویا ('dcc') مدل GARCH چند متغیره است. من نمی توانم بفهمم اعداد همبستگی چگونه محاسبه می شوند. از آنچه که من درک می کنم، مدل «dcc garch» مجموعه ای از همبستگی ها از واریانس ها را در طول زمان به شما ارائه می دهد. بنابراین، سوالات من این است: 1. همبستگی های ارائه شده در جدول به چه معناست؟ آیا میانگین همبستگی های پویا است؟ 2. من نتیجه خود را از سری همبستگی های شرطی پویا دو معادله ایجاد کرده ام. چگونه آنها را در جدولی که در جدولی در Stata نشان می دهد برای مدل گارچ همبستگی شرطی پویا گزارش می کنید؟ آیا من درست می گویم که فقط بین دو سری همبستگی یک آزمون t می گیریم؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Pbcub.png)
همبستگی شرطی پویا در جدول Stata گزارش شده است
26568
من می خواهم بدانم چگونه می توان _فاصله های پیش بینی_ را برای تخمین های رگرسیون لجستیک ایجاد کرد. به من توصیه شد که رویه های موجود در Collett's _Modelling Binary Data_، ویرایش دوم ص.98-99 را دنبال کنم. پس از اجرای این رویه و مقایسه آن با «predict.glm» R، در واقع فکر می‌کنم این کتاب روش محاسبه فاصله‌های اطمینان را نشان می‌دهد، نه فواصل پیش‌بینی. اجرای رویه از Collett، با مقایسه با 'predict.glm'، در زیر نشان داده شده است. می‌خواهم بدانم: چگونه می‌توانم از اینجا به جای فاصله اطمینان، یک بازه پیش‌بینی تولید کنم؟ #برگرفته از Collett 'Modelling Binary Data' 2nd Edition p.98-99 #نیاز به اعداد تصادفی قابل تکرار است. seed <- 67 num.students <- 1000 which.student <- 1 #تولید قاب داده با داده های ساخته شده از دانش آموزان: set.seed(seed) #reset seed v1 <- rbinom(num.students,1,0.7) v2 <- rnorm(طول(v1)،0.7،0.3) v3 <- rpois(length(v1),1) #ایجاد df به نمایندگی از دانش آموزان <- data.frame( intercept = rep(1,length(v1)), outcome = v1, score1 = v2, score2 = v3 ) print(head(students )) predict.and.append <- function(input){ #ایجاد یک مدل لجستیک وانیلی به عنوان تابعی از داده های score1 و score2.model <- glm (نتیجه ~ score1 + score2، داده = ورودی، خانواده = دوجمله ای) #محاسبه پیش بینی ها و SE.fit با روش داخلی بسته R # اینها به صورت logits هستند. پیش‌بینی‌ها <- as.data.frame(predict(data.model، se.fit=TRUE، type='link')) پیش‌بینی‌ها$واقعی <- ورودی$نتیجه پیش‌بینی‌ها$پایین <- plogis(predictions$fit - 1.96 * پیش‌بینی‌ها $se.fit) predictions$prediction <- plogis(predictions$fit) predictions$upper <- plogis(predictions$fit + 1.96 * predictions$se.fit) return (list(data.model, predictions)) } خروجی <- predict.and.append(students) data.model <- output[[1]] #summary (data.model) #Export vcov matrix model.vcov <- vcov(data.model) # اکنون هدف ما این است که بازتولید «پیش‌بینی‌ها» و se.fit به صورت دستی با استفاده از ماتریس vcov this.student.predictors <- as.matrix(students[which.student,c(1,3,4)]) #Prediction: this.student.prediction < - sum(this.student.predictors * coef(data.model)) square.student <- t(this.student.predictors) %*% this.student.predictors se.student <- sqrt(sum(model.vcov * square.student)) manual.prediction <- data.frame(lower = plogis(this.student .prediction - 1.96*se.student), prediction = plogis(this.student.prediction), upper = plogis(this.student.prediction + 1.96*se.student)) print(پیش نمایش داده ها:) print(head(students)) print(paste(تخمین نقطه ای از احتمال نتیجه برای دانش آموز، which.student, (2.5٪، پیش بینی امتیاز، 97.5٪) با روش کولت:)) manual.prediction print(paste(تخمین نقطه ای از احتمال نتیجه برای دانش‌آموز، which.student,(2.5%, پیش‌بینی نقطه، 97.5%) توسط R's predict.glm:)) print(output[[2]][which.student,c('lower',' پیش‌بینی، «بالا»)])
محاسبه فواصل پیش بینی برای رگرسیون لجستیک
60907
فرض کنید می گوییم نرخ شیوع برخی بیماری ها 1 دلار در 50 دلار است. آیا این منطقی است؟ یا باید این را به $ \%$ تبدیل کرد؟ یعنی باید بگوییم که میزان شیوع 2$ \%$ است؟
راه مناسبی برای ارائه میزان شیوع چیست؟
66500
من در حال ساخت مدلی برای پیش بینی وزن یک گونه حشره با مجموعه ای از متغیرهای دیگر هستم. نمودار زیر عملکرد مدل من را با استفاده از مجموعه ای از داده های آزمایشی نشان می دهد که در آن وزن واقعی حشرات مشخص است. محور x وزن واقعی حشره و مقدار y خطای مدل من است—مقدار مطلق وزن پیش‌بینی‌شده - وزن واقعی: ![توضیح تصویر را اینجا وارد کنید](http://i.stack .imgur.com/S2DWZ.jpg) از این تصویر می بینید که من حشرات زیادی با وزن نسبتا کم دارم. در این موارد، مدل من خطای پیش‌بینی نسبتاً کمتری دارد. در مقابل، من حشرات نسبتا کمی دارم که سنگین هستند و خطای مرتبط با این پیش‌بینی‌ها واریانس بسیار بیشتر همراه با خطای بالاتر را نشان می‌دهد. با توجه به این مدل و داده های آزمون، من می خواهم راهی برای ایجاد فاصله های اطمینان برای پیش بینی های جدید پیدا کنم. برای مثال، اگر مدل من پیش‌بینی کند که یک حشره نسبتاً سنگین است، فواصل اطمینان حول این پیش‌بینی زیاد خواهد بود. سوال من این است که چگونه می توانم این کار را انجام دهم؟ یک مدل خطی برای این داده ها نامناسب به نظر می رسد زیرا بیشتر نقاط در نزدیکی مبدا خوشه بندی شده اند. من از اینکه چگونه می توانم فواصل اطمینان را برای پیش بینی هایم بسازم دچار مشکل هستم.
ساخت فواصل اطمینان برای مدل پیش بینی
71591
من یک آزمایش $(0,1)$ دارم که $1$ با احتمال $p$ و $0$ با احتمال $1-p$ برمی گرداند. فرض کنید $X_i$ متغیر تصادفی باشد که نتیجه تکرار $i$ آزمایش را توصیف می کند. من به مقدار $Y_t=\sum_{i=0}^t X_i$ علاقه مند هستم، که تعداد موفقیت ها را از ابتدای دنباله محاسبه می کند. به محض اینکه $Y_t \geq (p+\delta) \cdot t$ (با $0 < \delta < 1-p$) تکمیل شد، به‌محض اینکه نسبت بین $0$ و $1$ بیش از آستانه $ باشد، این دنباله پایان می‌یابد. p+\delta$. به طور کاملاً شهودی مجموع به $Y_t = p\cdot t$ (مقدار مورد انتظار) همگرا می شود، اما احتمال رسیدن به $Y_t = (p+\delta)\cdot t$ غیر صفر است و در یک اجرا بی نهایت به دست خواهد آمد. سوال این است که چه زمانی به آن می رسد؟ برای این دو مقدار جالب وجود دارد که می‌خواهم محاسبه کنم: احتمال آخرین مرحله $t \rightarrow t+1$، یعنی $Pr[Y_{t+1} \geq (p+\delta) \ cdot (t+1)|Y_t < (p+\delta) \cdot t]$ و زمان مورد انتظار تا پایان دنباله، $\mathrm{E}[\text{steps}]$.
مرزهای تمرکز در یک دنباله از (0،1) - آزمایش
27615
سلام من مشکل زیر را دارم: من قصد دارم یک رگرسیون لجستیک روی داده های ترافیک وب انجام دهم. یکی از ویژگی های من تعداد روزهای پس از آخرین بازدید است (عددی را با R تایپ کنید). اکنون بسیاری از بازدیدکنندگان اولین بار هستند و من هیچ داده ای برای این ویژگی ندارم. آیا باید آنها را به عنوان NA کد کنم یا کدگذاری آنها به عنوان 0 معتبر است؟ از همه شما متشکرم
رگرسیون لجستیک: آیا کد NA به عنوان 0 معتبر است؟
107896
من داده‌های زیر را دارم: 20 شرکت‌کننده، که هر کدام 2 نوع درمان (A & B) را در 3 جلسه (زمان) مختلف انجام می‌دهند. برای هر جلسه درمانی، من 6 اندازه گیری عادی را جمع آوری می کنم که فقط یک مقدار در هر جلسه دارد. علاوه بر این، برای هر جلسه درمانی، 2 تست مختلف با مقادیر پیش و پس از آن دارم که به تفاوت بین مقادیر قبل و بعد علاقه مندم. من می‌خواهم بررسی کنم که کدام یک از معیارها یا تفاوت‌های آزمایشی هنگام دریافت درمان A در مقایسه با درمان B متفاوت است. به عنوان مثال جدول (داده‌های کامل دارای اندازه‌گیری 1..6 هستند): | شماره شرکت کننده | درمان | جلسه | اندازه 1 | اندازه 2 | Test1_pre | Test1_post | Test2_pre | Test2_post | |--------------------|-----------|---------|------ ----|----------|-----------|-----------|--------- --|------------| | 1 | A | 1 | | | | | | | | 1 | A | 2 | | | | | | | | 1 | A | 3 | | | | | | | | 1 | ب | 1 | | | | | | | | 1 | B | 2 | | | | | | | | 1 | ب | 3 | | | | | | | و غیره برای هر شرکت کننده این اولین باری است که از SPSS استفاده می کنم و سعی می کنم بفهمم که چگونه چنین تحلیلی را انجام دهم. تا کنون، من موفق شده ام از تجزیه و تحلیل اندازه گیری های مکرر استفاده کنم، فاکتورهای درمان و جلسه و همه اندازه گیری ها را تعریف کنم، اما هنوز نمی توانم درک کنم که چگونه مقادیر قبل از آزمون را به گونه ای تنظیم کنم که تفاوت بین مقادیر قبل و بعد برای هر آزمایش وجود داشته باشد. در نظر گرفته شده است. به نظر من مقادیر پیش باید به عنوان متغیرهای کمکی تعریف شوند، اما نمی توانم راهی برای اتصال هر پیش ارزش به مقدار پست صحیح خود ببینم. من می‌توانم یک ستون جدید در داده‌هایم با تفاوت محاسبه‌شده برای هر آزمون قرار دهم، اما فهمیدم که این کمتر توصیه می‌شود زیرا مقادیر واقعی آزمایش‌ها را نادیده می‌گیرد. من از هر گونه کمک یا راهنمایی قدردانی می کنم. خیلی ممنون!
SPSS اقدامات مکرر با اقدامات مختلف قبل از بعد
26567
این ممکن است یک سوال لنگ باشد، اما من گیر کردم و نمی توانم سرم را درگیر آن کنم. من در حال انجام یک تجزیه و تحلیل بیان ژن هستم، با مقایسه ژن‌های $\sim 10000$ بین دو گروه، $n=6$ نمونه در هر گروه. خط لوله من به این صورت است: 1. من بررسی می کنم که آیا دو گروه دارای واریانس مساوی با استفاده از تست Levene برای هر ژن هستند یا خیر. 2. برای آن دسته از ژن هایی که دارای واریانس های مساوی هستند، من یک آزمون t تعدیل شده (مانند limma) را انجام می دهم، زیرا واریانس های مساوی را فرض می کند. 3. برای بقیه ژن هایی که من Mann-Whitney U. را اجرا می کنم (قبل از اینکه در مورد تصحیح آزمایش چندگانه به من بگویید، بعداً با تغییر برچسب های جمعیت روی نمونه ها و اجرای مجدد آزمایش های بالا، FDR را محاسبه می کنم). اکنون، من می خواهم اندازه اثر را برای همه ژن ها محاسبه کنم. من از d کوهن با واریانس ادغام شده استفاده می کنم (به ویکی پدیا مراجعه کنید)، اما نمی دانم که آیا می توانم این کار را برای هر دو گروه ژن (یعنی ژن هایی با و بدون واریانس برابر بین گروه ها) انجام دهم. فکر می‌کنم نمی‌توانم، اما واقعاً یک حدس است (فکر می‌کنم فقط می‌توانم آن را برای ژن‌های واریانس برابر اجرا کنم). اگر نمی توانم، آیا راه مناسب تری برای انجام این کار وجود دارد؟
آیا واریانس ادغام شده هنگام محاسبه اندازه اثر، برای واریانس نابرابر محافظت می کند؟
26562
من یک نمودار دارم و دو نقطه وجود دارد که می تواند دو نقطه پرت بالقوه باشد. من سعی می کنم یک خط چند جمله ای با بهترین تناسب با نظم تعریف نشده ایجاد کنم. من معتقدم که می‌توانم از قانون حذف انحراف استاندارد > 2 استفاده کنم، اما مطمئن هستم که دقیقاً چگونه این قانون اعمال می‌شود. آیا در ابتدا با استفاده از تمام نقاط، انحراف معیار واجد شرایط را تعیین می کنم؟ این کاری بود که من انجام دادم، اما دو امتیاز دارم که واجد شرایط محرومیت است. آیا هر دو را یکجا حذف کنم یا یکی یکی؟ اگر فقط یکی را با بیشترین انحراف از خط بهترین تناسب حذف کنم، می‌توانم خط را دوباره محاسبه کنم و خط جدیدی از بهترین برازش با ترتیب چند جمله‌ای جدید به من می‌دهد. اگر از این تناسب جدید استفاده شود، نقطه دیگری که قبلاً نقطه پرت بود، دیگر نقطه پرت نیست. روش صحیح چیست؟
یک روش ریاضی برای تعریف نقطه در نمودار پراکندگی به عنوان نقطه پرت چیست؟
55629
بگویید من یک متغیر مستقل با رابطه زیر با متغیر وابسته باینری، DV دارم: _________________________________________________________________________________ |verx_s | # Recs | % Recs | # DV | DV Rt | |________________________________|_________|_____________|_________|________| | 0 | 75700| 6.4467%| 941| 1.243٪ | |1 | 277,129| 23.6009%| 1,471| .5308% | |2 | 51,662| 4.3996%| 219| .4239% | |3 | 769,737| 65.5526%| 2,269| .2948% | |همه |1,174,228| 100.0000%| 4900| .4173% | |________________________________|_________|_____________|_________|________| در شرکت من، کدگذاری مجدد مقادیر verx_s به مقدار DV Rt و در نظر گرفتن آن به عنوان یک متغیر پیوسته هنگام مدل‌سازی رگرسیون لجستیک، معمول است. فواصل اطمینان مهم نیست. تنها چیزی که ما به آن اهمیت می‌دهیم این است که آیا اعتبار مدل در نمونه‌ای خارج از زمان انجام می‌شود یا خیر. آیا استفاده از این میانبر ذاتاً اشکالی دارد؟ همچنین لازم به ذکر است که در اکثر موارد متغیر مستقل به گونه ای ساخته شده است که برای مشتریان ما حس شهودی ایجاد کند. بنابراین _ترتیب_ میانگین هدف مهم است. از این رو، چرا ما نمی توانیم از vars های ساختگی ساده استفاده کنیم.
مزایا/معایب رمزگذاری مجدد متغیرهای ترتیبی/اسمی برای هدف گذاری میانگین برای رگرسیون لجستیک؟
60902
چگونه می توانم احتمال ورود یا مقدار احتمال را از الگوریتم فوروارد برای یک دنباله مشاهده شده دریافت کنم؟ به عنوان مثال، زمانی که من الگوریتم رو به جلو را در «R» روی دنباله ای به طول 3 برای یک مدل مارکوف پنهان آموزش دیده از 3 حالت اجرا کردم، مقادیر احتمال هر نماد مشاهده شده در هر حالت را به من داد: $$ \begin{matrix} ~ &O1 & O2 & O3 \\\ S1 & -143.2 & -500.0 & -231.5 \\\ S2 & -212.2 & -231.4 & -200.0 \\\ S3 & -112.4 & -115.6 & -118.5 \end{matrix} $$ در ماتریس فوق، سطرها حالتها هستند و ستونها نمادهای مشاهده شده هستند. حال چگونه می توانم مقدار احتمال log نهایی را از این ماتریس محاسبه کنم؟
چگونه احتمال log در HMM را از خروجی الگوریتم فوروارد در R محاسبه کنیم؟
88396
من به طور مبهمی با نمودارهای احتمال عادی آشنا هستم (غیر آماری که به اندازه کافی می داند تا بتواند از پس آن بربیاید). نمودار این مقاله: دو منحنی نقطه چین نامیده می شوند و نشان دهنده چیست و چگونه محاسبه می شوند؟ ![](http://www.public.iastate.edu/~wrstephe/stat403/plotnorm.gif) **ویرایش:** سوال من مستقل از نرم افزار است. من فقط می خواهم بدانم باندهای جانبی مورد استفاده در یک نمودار احتمال معمولی معمولی چه نامیده می شوند و چگونه تعریف می شوند. * * * پاسخ خوبی ندارم اما پس از چاقو زدن در تاریکی در گوگل، بالاخره این یادداشت های سخنرانی را در مورد نمودارهای چندک پیدا کردم: https://www.stat.auckland.ac.nz/~ihaka/787 /lectures-quantiles2-handouts.pdf
اصطلاحات مورد استفاده در نمودارهای احتمال عادی
111547
(من سوال زیر مکالمه با @whuber را در نظرات به روز کردم). مورد من به شرح زیر است: من حدود هزار بردار ردیفی با ابعاد $1 \ برابر 8 $ دارم. این بردارهای ردیف با اعداد شناخته شده و غیر منفی پر شده اند (همگی اعداد گویا هستند) که می توانند صفر نیز باشند. در برخی موقعیت ها، متغیرهای $0/1$ دارم، اما نه در همه. در اصل، آنها ممکن است بردارهای یکسانی داشته باشند. از طریق تئوری به حداکثر رساندن سودمندی، هر بردار ردیف به پروفایل مربوطه از اولویت ها (با ابعاد 8 دلار) مرتبط می شود. هر موقعیت در بردار نمایانگر جنبه‌ای قابل مشاهده از یک ویژگی محصول است که با قیمت فروش محصول ترکیب شده است، و موقعیت مربوطه در بردار ترجیحات نشان‌دهنده اثر مطلوبیت/قیمت لذت‌بخش این ویژگی است. کاری که من باید انجام دهم این است که به نحوی این بردارها را گروه بندی کنم تا نمایه های ترجیحی بسیار کمتر از هزار را نشان دهند. سپس می‌توانم هر زیر گروه را به‌عنوان مجموعه‌ای از تحقق‌ها از همان بردار تصادفی چند متغیره در نظر بگیرم و به توصیف توزیع‌ها ادامه دهم. به بیان دقیق، اگر دو بردار حتی در یکی از هشت موقعیت، و حتی در کوچکترین تفاوت با هم متفاوت باشند، نمایانگر پروفایل ترجیحات متفاوتی هستند. اما من حاضرم بپذیرم که برای هر موقعیت، یک پروفایل ترجیحی می‌تواند طیفی از مقادیر را تولید کند. یعنی قبول دارم که «منحنی‌های بی‌تفاوتی ضخیم هستند» که در «اقتصاد» می‌گوییم، یا ترجیحات یک مقدار تصادفی دارند. از آنچه من فهمیدم این همان چیزی است که ما آن را خوشه بندی داده می نامیم، و روش های مختلفی برای انجام این کار وجود دارد، اما این قلمرو جدید برای من است، بنابراین به من اعتماد ندارم که در پست های CV قبلی جستجو کنم. این به تحقیق مربوط می شود، بنابراین لطفاً با آن مانند تکلیف رفتار کنید: نام روش ها و برخی ادبیات برای شروع من واقعاً کافی است. اگر اطلاعات اضافی لازم است، لطفا بپرسید.
چگونه می توان در مورد خوشه بندی داده ها اقدام کرد؟
22
چگونه به انگلیسی ساده ویژگی هایی را که استدلال بیزی را از استدلال متداول متمایز می کند، توصیف می کنید؟
استدلال بیزی و مکرر به زبان انگلیسی ساده
15556
آیا کسی می تواند توضیح دهد که چگونه مدل های پنهان مارکوف با حداکثر کردن انتظارات مرتبط هستند؟ من لینک های زیادی را مرور کردم اما نتوانستم به یک نمای واضح برسم. با تشکر
مدل‌های پنهان مارکوف و الگوریتم به حداکثر رساندن انتظارات
50417
امیدوارم این مشکلی که در دست دارم را به وضوح بیان کند. در اینجا آمده است: من یک شبکه عصبی را با یک مجموعه داده اولیه که به منظور تضمین مشارکت برابر هر متغیر در فرآیند یادگیری نرمال سازی شده بود، آموزش دادم. هنگامی که شبکه عصبی آموزش داده شد، مجموعه‌های جدیدی از داده‌ها را خواهم داشت که طبقه‌بندی می‌شوند. Q1: چگونه باید از نظر عادی سازی یک مجموعه داده جدید اقدام کنم؟ آیا شانسی وجود دارد که میانگین و انحراف استاندارد متفاوت این مجموعه داده جدید را به طور قابل توجهی با مجموعه ای که من در ابتدا برای آموزش طبقه بندی کننده خود استفاده کردم متفاوت کند؟ آیا این می تواند نتایج اشتباهی ایجاد کند؟ (البته من در نظر دارم که نمونه های درآمد جدید از همان منبع مجموعه آموزشی اصلی باشد). Q2: آیا اگر به جای طبقه بندی، ابتدا مجموعه داده های آموزشی را خوشه بندی کنم و آنها نمونه های درآمدی جدید را (در خوشه ها/گروه هایی که توسط الگوریتم خوشه بندی من پیدا شده است) طبقه بندی کنند، باید همان روش عادی سازی را دنبال کنم؟
نرمال سازی و طبقه بندی داده ها
26561
من در حال انجام یک تجزیه و تحلیل خوشه بندی در SAS هستم و برخی از متغیرهایی که سعی در خوشه بندی آنها را دارم حاوی مقادیر پرت هستند. من سعی کردم داده ها را تغییر دهم (ورود و/یا استانداردسازی آنها) اما کاملاً انجام نشد. بنابراین، برای مثال، فرض کنید من به 9 خوشه رسیدم، سپس یک یا دو خوشه فقط یک مقدار در آنها خواهند داشت. به دلیل ماهیت کار من، حذف موارد پرت اختیاری نیست. من می‌خواهم مجموعه‌ای از مقادیر را به گروه‌ها اختصاص دهم تا مقادیر موجود در خوشه‌های یکسان (به یک معنا) به یکدیگر شباهت بیشتری داشته باشند تا در خوشه‌های دیگر، اما اگر تعداد خوشه‌ها را کاهش دهم و اساساً مقادیر پرت را ادغام کنم. گروه با گروه های دیگر من می ترسم که گروه ادغام شده همگن نباشد. بنابراین، برای جمع‌بندی سؤالاتم، چگونه می‌توانم با مقادیر پرت برای تحلیل خوشه‌ای برخورد کنم؟ پیشاپیش متشکرم
خوشه بندی متغیرها با مقادیر پرت
88392
فرض کنید من یک متغیر پاسخ (`y`) دارم که به طور معمول توزیع شده است، و y به طور کلی با x به روشی مانند توزیع نمایی تجمعی تغییر می کند، به این معنی که y ممکن است در نقطه عطفی به یک فلات برسد. از `x`، مانند آن: set.seed(123) df<-data.frame(y=pexp(x)+runif(length(x),0,0.2),x=1:901) df<-df[sample(1:300900,T)،] hist(df $y) نمودار (df$x,df$y,xlab=x,ylab=y) ![y](http://i.stack.imgur.com/TMd7j.png) ![xy](http://i.stack.imgur.com/Rw3Df.png) سوال من این است که بهترین راه برای مدل این مرتب سازی داده ها؟ اسپلاین، چند جمله ای یا چیزهای دیگر؟
چگونه دو متغیر را با یک رابطه نمایی تجمعی مدل کنیم؟
92886
من 2 متغیر پواسون دارم، میانگین و استاندارد خطای هر کدام را می دانم. چگونه خطای استاندارد جمع را محاسبه می کنید؟
خطای استاندارد مجموع دو متغیر پواسون
92265
در مسئله SVC، با توجه به تمام ضرایب ثابت (C، گاما، و غیره)، آیا می توان توابع تصمیم گیری و بردارهای مختلف را با استراتژی های بهینه سازی متفاوت بدست آورد؟
آیا الگوریتم بردارهای پشتیبانی وابسته است؟
110493
من رگرسیون لجستیک زیر را دارم: $$ \text{logit} (y) = \beta_0 + \beta_1\، x $$ که از آن می توانم احتمال بعدی زیر را (با استفاده از رویکرد بیزی) تخمین بزنم: $$ P(\beta_1 >0\,|\,\text{Data}). $$ آیا نام خاصی برای آن احتمال وجود دارد (چیزی مانند مقدار p یک طرفه بیزی)؟
نام احتمال پسین بیزی که ضریب رگرسیون بزرگتر از صفر است
22671
ما داده هایی داریم که به شرح زیر نشان داده شده است: در هر ردیف 10 اثر قابل مشاهده و 3 علت غیر قابل مشاهده از 8 مورد وجود دارد که توسط محققان حدس زده شده است. تأثیرات اعداد واقعی هستند و علل مقوله های گسسته هستند. ما می خواهیم سیستمی را آموزش دهیم که اثرات مشاهده شده را بپذیرد و سه علت محتمل را حدس بزند. بنابراین چگونه می توان 3 از 8 علت را نشان داد و بهترین رویکرد و نحوه استفاده از چنین الگوریتم یادگیری چیست؟ ویرایش: قابل مشاهده ها ویژگی های ترک های یک سازه هستند. علل مواردی مانند بار، باد، دما هستند. نمونه نمونه مانند 1.2 2.3 45 6.7 5.5 12 3.4 1.1 5.6 2.3 بار دمای آب و هوا است اگر بتوانیم رتبه علل را تعیین کنیم. به عنوان مثال مهمتر از همه بار است، سپس آب و هوا و غیره. زیرا نمونه به این صورت جمع آوری می شود.
ارتباط یادگیری بین اثرات چندگانه و پیامدهای علی
107895
بنابراین من سؤالات متعددی در مورد انواع مختلف تحلیل هایی دارم که می توان در جدول احتمالی 2×2 استفاده کرد و اینکه چه زمانی باید از تحلیل های مختلف استفاده شود. برای باز کردن، متذکر می‌شوم که این از تلاش‌های من برای یافتن تحلیل‌های مناسب برای انجام تحقیقات با استفاده از داده‌های طبقه‌بندی شده در جدول احتمالی ۲×۲ ناشی می‌شود. در مورد من دو شرط دارم: کنترل و آزمایش و در گروه آزمایشی دو مورد مورد علاقه (مثلاً مورد الف و مورد ب) وجود دارد. در همه موارد، من در حال بررسی این هستم که آیا یک نتیجه رخ می دهد یا خیر: چند شرکت کننده آزمایشی نتیجه را در مورد A نشان می دهند؟ چند شرکت کننده آزمایشی نتیجه مورد B را نشان می دهند؟ چند شرکت کننده در کنترل نتیجه را نشان می دهند؟ بنابراین علاوه بر مقایسه مورد A با گروه کنترل (A در مقابل C) و مورد B با گروه کنترل (B در مقابل C)، همچنین می خواهم مورد A را با آیتم B (A در مقابل B) مقایسه کنم. درک من این است که برای مقایسه‌های بین آزمودنی‌ها (مانند A در مقابل C و B در مقابل C) به طور سنتی از آزمون پیرسون $\chi^{2}$ استفاده می‌شود و برای مقایسه درون آزمودنی‌ها (مانند A در مقابل B) ) که آزمون مک نمار یک انتخاب رایج است. ** سوال 1: ** آیا این درک دقیقی از انتخاب های رایج برای آزمون های آماری با استفاده از جداول احتمالی 2x2 است؟ * * * سؤالات بعدی من، و جایی که بیشتر سردرگمی من نهفته است، مربوط به این است که وقتی تعداد سلول های مشاهده شده چندگانه کم است (کمتر از 10) چه باید کرد. من موضوعات متعددی را در اینجا کاوش کرده ام، صفحات ویکی پدیا را برای موضوعات مختلف (تصحیح یتس، دقیق فیشر، و غیره)، چند مقاله ژورنال، و توضیحات در بسته های R، اما دیدگاه های متناقضی پیدا کرده ام. برخی منابع نشان می‌دهند که باید از تصحیح یتس استفاده کنید، برخی دیگر می‌گویند که قدیمی است، زیرا علاوه بر محافظه‌کاری بیش از حد، تنها به این دلیل ترجیح داده می‌شد که گزینه‌های دیگر از نظر محاسباتی شدید بودند. دیگران می گویند که باید از تست دقیق فیشر استفاده کنید، اما من اطلاعات بیشتری را دیده ام که نشان می دهد تست دقیق فیشر تنها زمانی مناسب است که مجموع ردیف و ستون را بدانید و گزینه های دیگر (بوشلو، بارنارد و غیره) عموماً قوی تر هستند. . با این حال، استفاده از کدام یک نیز مشخص نیست. در نهایت، حتی دیگران پیشنهاد می‌کنند که تست $\chi^{2}$ پیرسون تا زمانی که تعداد سلول‌های _مورد انتظار کم نباشد، مناسب است. من نشانه هایی دیده ام که این استدلال ها برای آزمون مک نمار نیز وجود دارد (به عنوان مثال، تصحیح تداوم و آزمون دقیق مک نمار). **سؤال 2:** آیا فرض در مورد تعداد سلول ها در مورد تعداد سلول های _منتظره_ است یا تعداد سلول های _مشاهده شده؟ اگر تعداد سلول های _مشاهده شده کم باشد، آیا این موضوع به نوع آزمایشی که باید استفاده شود اهمیت دارد؟ **سوال 3:** تست دقیق چیست و چه زمانی باید از تست های دقیق استفاده کرد؟ * * * علاوه بر پاسخ به این سؤالات، از هر گونه پیشنهادی در مورد کتاب ها یا مقالاتی که می توانم برای کسب اطلاعات بیشتر در مورد این موضوع بخوانم، بسیار سپاسگزارم. بخشی از مبارزه من با همه اینها فقط یافتن اطلاعات واضح در مورد این موضوعات و نحوه ارتباط آنها با یکدیگر دشوار است.
تجزیه و تحلیل مناسب برای جداول احتمالی 2x2
65268
با توجه به رگرسیون لجستیک (دودویی) و یک IV طبقه‌بندی، اگر یک exp(b) داده شده 0.08 باشد و من از کدگذاری شاخص استفاده می‌کنم که دسته مرجع من برای متغیر State، مثلاً وایومینگ، چگونه .08 را تفسیر کنم؟ احتمالاً من 0.08 را با میانگین وایومینگ مقایسه می کنم (در اینجا میانگین تناسب یا تعداد نمونه های مثبت وایومینگ است)... بنابراین اگر وایومینگ = 0.06، آیا 0.08 * 0.06 را ضرب کنم. = 0.0048؟ به نظر درست نیست...
تفسیر exp(b)
110490
من در مورد مفهوم اعتبار سنجی متقاطع و استفاده از آن سردرگم هستم. همانطور که قبلاً در مورد اعتبارسنجی متقاطع خوانده بودم، این روشی برای اعتبارسنجی یک مدل است. من در پروژه خود اعتبار سنجی متقاطع انجام دادم (توسعه مدل های رگرسیون مختلف بر روی یک مجموعه داده، اعتبارسنجی مدل و در نهایت انتخاب بهترین مدل). اعتبار سنجی متقاطع فقط یک مدل به من می دهد اما هیچ معیار آماری که توانایی مدل را نشان دهد وجود ندارد. ضمناً هر بار که اعتبار متقاطع را اجرا می کنم (در برنامه R) نتیجه متفاوت است زیرا مجموعه داده قطار تغییر می کند. برای انتخاب بهترین مدل، من AIC را برای مدل به دست آمده توسط اعتبارسنجی متقاطع محاسبه می کنم، اما اکنون فکر می کنم اشتباه است. زیرا اولاً داده‌های قطار مورد استفاده برای هر مدل متفاوت است و دوم اینکه حتی برای یک مدل خاص، AIC با تکرار اعتبارسنجی متقاطع تغییر می‌کند. اخیراً خواندم که از اعتبارسنجی متقاطع برای انتخاب بهترین مدل استفاده می شود! همه اینها من را در مورد سودمندی اعتبار متقاطع و نحوه تفسیر نتیجه گیج کردند. آیا می توانید به من کمک کنید تا همه اینها را بفهمم؟
آیا اعتبار متقاطع برای اعتبارسنجی یک مدل است یا برای انتخاب بهترین مدل در انواع مختلف مدل ها؟
92884
من سعی می کنم بفهمم که چگونه می توان از تخمین چگالی هسته (KDE) یا رگرسیون چندکی (ناپارامتریک) برای پیش بینی مقادیر با توجه به مشاهدات تاریخی استفاده کرد. برای مثال، مدل رگرسیون ناپارامتریک زیر را در نظر بگیرید $Y_t = g(X_t) + u_t$ که در آن $X_t = (Y_{t - 1}، \ldots، Y_{t - q})$. در معادله زیر (پیش‌بینی یک گام جلوتر) $\hat{Y}_{n + t,1} \equiv \hat{\text{E}}(Y_{n + t}|X_{n + t }) = \dfrac{\sum_{j = q + t}^{n + t - 1}Y_jK_h(X_j - X_{n + t})}{\sum_{j = q + t}^{n + t - 1}K_h(X_j - X_{n + t})}$ که در آن $K_h(X_j - X_{n + t}) = \prod_{s = 1}^q h_s^{- 1}k((Y_{j - s} - Y_{n + t - s})/h_s)$، به نظر من ترتیب مشاهدات در نظر گرفته نشده است هنگام ارزیابی عملکرد هسته در مشاهدات قبلی حساب کنید. آیا نباید مهم باشد؟ در غیر این صورت، به نظر من مشاهدات در دوره های زمانی قبلی فقط به عنوان i.i.d تلقی می شوند. داده ها (بدون ساختار زمانی). اگر بخواهم از تابع npqreg در بسته R np برای داده های سری زمانی استفاده کنم، مشابه پیش بینی چندک های آینده است. پیشاپیش از هر نظری ممنونم
پیش بینی سری های زمانی ناپارامتریک
107899
من در حال مطالعه یک ساخت زبانی (بیایید آن را «C» بنامیم) در یک زبان «L1» در تلاش برای جداسازی چندین عامل («F1»، «F2»، ...، «Fn») بوده‌ام که می‌توانند بر حضور تأثیر بگذارند/محرک شوند. از C در L1. همه عوامل متغیرهای طبقه ای با چندین سطح هستند. من آزمون‌های معنی‌داری پایه (خوبی برازش) را انجام دادم که سطح بالایی از معنی‌داری را برای هر یک از عوامل دخیل نشان داد. با این حال، من اکنون می خواهم تعامل همه عوامل / همه سطوح را اندازه گیری کنم. در مورد روش، من فکر می کنم که رگرسیون پواسون همان چیزی است که من به دنبال آن هستم زیرا C هیچ سطحی ندارد و می تواند بر حسب فرکانس نمایش داده شود. بنابراین من رگرسیون پواسون را در R امتحان کردم اما به زودی با چندین مشکل مواجه شدم. من به طور خاص دو سوال دارم: 1. چارچوب داده ای که من استفاده کردم به این شکل بود (در اینجا فقط بخش کوچکی از آن را می توانید به عنوان مثال پیدا کنید): Subj (Factor1) NP (F2) New (F3) EXP_CON (F4) به فرکانس های همه ترکیبات متغیر را دریافت کردم، من از تابع ftable استفاده کردم و سپس به صورت دستی فرکانس ها را محاسبه کردم. ناگفته نماند که این روش دردناکی بود و زمان زیادی را صرف کرد! آیا R راه آسان‌تر و سریع‌تری برای به دست آوردن فرکانس‌ها برای همه عوامل/سطوح برهم‌کنش (احتمالاً حذف خودکار تعاملاتی که فرکانس آنها صفر است) ارائه می‌کند؟ به عبارت دیگر، من می خواهم چیزی شبیه به آن بدست بیاورم: Sub (F1) NP (F2) EXP_CON (F3) New (F4) (Freq) 6 2. پس از آن، من سعی کردم یک مدل رگرسیون پواسون را اجرا کنم اما نتیجه گیج کننده در اینجا یک نمونه از آنچه من دریافت کردم آمده است: Syn_FunOther:Focus_CCIMP_CON:IS_CCGiven NA NA NA NA Syn_FunSub:Focus_CCIMP_CON:IS_CCGiven NA NA NA NA Syn_FunOther:Focus_CCNO_CON:NA NA CCGiven Syn_FunSub:Focus_CCNO_CON:IS_CCGiven NA NA NA NA Syn_FunOther:Focus_CCNOV:IS_CCGiven NA NA NA NA من واقعاً متوجه نمی شوم. چرا مقادیر «NA» زیادی وجود دارد؟
مشکلات رگرسیون پواسون
395
من یک مجموعه داده دارم که در آن هر هفته یک سری اندازه گیری انجام می شود. به طور کلی مجموعه داده ها یک تغییر +/- 1 میلی متر در هر هفته با میانگین اندازه گیری در حدود 0 میلی متر را نشان می دهد. در ترسیم داده های این هفته به نظر می رسد که حرکت قابل توجهی در دو نقطه رخ داده است و با نگاهی به مجموعه داده ها، این امکان نیز وجود دارد که حرکت هفته گذشته نیز رخ داده باشد. بهترین راه برای نگاه کردن به این مجموعه داده چیست تا ببینیم چقدر محتمل است که حرکاتی که دیده شده اند، حرکات واقعی باشند و نه فقط یک اثر ناشی از تحمل طبیعی در خوانش ها. **ویرایش** برخی اطلاعات بیشتر در مورد مجموعه داده. اندازه گیری ها در 39 مکان انجام شده است که باید به روشی مشابه رفتار کنند، اگرچه فقط برخی از نقاط ممکن است علائم حرکت را نشان دهند. در هر نقطه قرائت ها اکنون 10 بار به صورت دو هفته ای انجام شده است و تا آخرین مجموعه قرائت ها اندازه گیری ها بین 1- میلی متر و 1 میلی متر بوده است. اندازه‌گیری‌ها را فقط می‌توان با دقت میلی‌متر انجام داد، بنابراین نتایج را فقط با نزدیک‌ترین میلی‌متر دریافت می‌کنیم. نتایج برای یکی از نقاطی که حرکت را نشان می دهد 0 میلی متر، 1 میلی متر، 0 میلی متر، -1 میلی متر، -1 میلی متر، 0 میلی متر، -1 میلی متر، -1 میلی متر، 1 میلی متر، 3 میلی متر است. ما به دنبال اطلاعات آماری قابل توجهی نیستیم، فقط به دنبال یک شاخص از آنچه ممکن است رخ داده باشد. دلیل آن این است که اگر اندازه‌گیری در یک هفته بعد به 5 میلی‌متر برسد، مشکل داریم و می‌خواهیم از قبل به ما هشدار داده شود که ممکن است این اتفاق بیفتد.
چگونه تشخیص دهیم که آیا اتفاقی در مجموعه داده ای رخ داده است که یک مقدار را در طول زمان نظارت می کند
114549
آیا کسی می‌تواند به من نمونه‌هایی از توزیع‌های متقارن حول میانگین را ارائه دهد، اما برای میانگین و واریانس یکسان، نسبت به توزیع عادی در اطراف میانگین متمرکزتر هستند؟ با تشکر
توزیع هایی مشابه توزیع عادی
101072
آیا این امکان پذیر است و اگر چنین است، انجام کارها به روشی به جای دیگری چه پیامدهایی دارد. آیا یک رویکرد به طور کلی ارجح است؟ تا کنون فقط استفاده از ماتریس واریانس کوواریانس به من آموزش داده شده است.
پیامدهای انجام یک تحلیل عاملی تاییدی با یک ماتریس همبستگی به عنوان ورودی به جای ماتریس واریانس-کوواریانس؟
114443
من در درک نماد در معادله (1) در صفحه 4 مقاله زیر کمی مشکل دارم: https://escholarship.org/uc/item/35x3v9t4#page-4 به طور خاص، $E_{X,Y چه می کند }$ و $E_\theta$ یعنی؟ به نظر می رسد این یک ضرب المثل است که $PE$ جنگل به سمت $PE$ یک درخت به صورت $k \ به \infty$ تمایل دارد، اما این منطقی نیست.
نماد اثبات تصادفی جنگل
114442
من دارم از طریق Gelfand، A.E. & Li Zhu، B.P.C کار می کنم. (2001). در مورد تغییر مشکل پشتیبانی در داده های مکانی - زمانی آمار زیستی، 2:1، 31-45. من در این گیر کرده ام: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/09HUl.png) این کاملاً اولین ذکری از f در هر جایی در مقاله است. آیا کسی می تواند به من کمک کند تا آن را شناسایی کنم؟ * Y = فرآیند فضایی * s = مکان های اندازه گیری شده * بتا، تتا = ضرایب فرضی برای تابع میانگین و تابع کوواریانس * H = تابع کوواریانس زوجی (؟) <\-- در مورد آن خیلی واضح نیست
پیش بینی فضایی بیزی: f چیست؟
48918
> ارقام دست نویس را با استفاده از PCA طبقه بندی کنید. از 200 رقم برای مرحله قطار > و 20 برای آزمایش استفاده کنید. من نمی دانم که چگونه PCA به عنوان یک روش طبقه بندی کار می کند. من یاد گرفتم که از آن به عنوان روش کاهش ابعاد استفاده کنم که در آن داده های اصلی را از میانگین آن کم می کنیم، سپس ماتریس کوواریانس، مقادیر ویژه و بردارهای ویژه را محاسبه می کنیم. از آنجا، ما می توانیم اجزای اصلی را انتخاب کنیم و بقیه را نادیده بگیریم. چگونه باید یک دسته از ارقام دست نویس را طبقه بندی کنم؟ چگونه داده ها را از کلاس های مختلف تشخیص دهیم؟ یا این که من باید از PCA برای اهداف استخراج ویژگی استفاده کنم و بعد از آن از یک روش طبقه بندی استفاده کنم، معنای کاملاً متفاوتی دارد؟
طبقه بندی ارقام دست نویس با استفاده از PCA
60901
من می خواهم یک حلقه در R اجرا کنم. من قبلاً این کار را انجام نداده ام، بنابراین از کمک شما بسیار سپاسگزار خواهم بود! 1. من یک مجموعه نمونه دارم: 25 شی. من می خواهم 1 شی از آن ترسیم کنم و از آن به عنوان یک مجموعه آزمایشی برای اعتبارسنجی خارجی آینده خود استفاده کنم. 24 شیء باقی مانده را می خواهم به عنوان یک مجموعه آموزشی (برای انتخاب یک مدل) استفاده کنم. من می خواهم این روند را تکرار کنم تا زمانی که تمام 25 شیء به عنوان یک مجموعه آزمایشی استفاده شوند. 2. برای هر یک از مجموعه های آموزشی می خواهم کد زیر را اجرا کنم: $\,$ library(leaps) forward <- regsubsets(Y ~.,data = training, method = forward, nbest=1) backward < - regsubsets (Y ~.، داده = آموزش، روش = به عقب، nbest=1) گام به گام <- regsubsets (Y ~.، داده = آموزش، روش = seqrep، nbest=1) جامع <- regsubsets (Y ~.، داده = آموزش، روش = به جلو، nbest=1) خلاصه (به جلو) خلاصه (به عقب) خلاصه (گام به گام) خلاصه (کامل) من می خواهم برنامه R برای انتخاب بهترین مدل (با بالاترین $R^2$ تنظیم شده) با استفاده از هر یک از روش های انتخاب، بنابراین 4 بهترین مدل نهایی وجود دارد (به عنوان مثال. بهترین مدل انتخاب شده با انتخاب رو به جلو، بهترین مدل انتخاب شده با انتخاب عقب و غیره...). پس از آن، من می‌خواهم اعتبارسنجی متقاطع داخلی هر چهار مدل انتخاب شده را انجام دهم و یکی از چهار مدل را انتخاب کنم که کمترین میانگین میانگین مربعات خطا (MSE) را دارد. من قبلاً این کار را با استفاده از کد زیر انجام می دادم: library(DAAG) val.daag<-CVlm(df=training, m=1, form.lm=formula(Y ~ X1+X2+X3)) val.daag<-CVlm (df=آموزش، m=1، form.lm=فرمول (Y ~ X1+X2+X4)) val.daag<-CVlm(df=آموزش، m=1، form.lm=فرمول(Y ~ X3+X4+X5)) val.daag<-CVlm(df=آموزش، m=1، form.lm=فرمول (Y ~ X4+X5+X7)) برای بهترین مدل انتخاب شده (پایین ترین MSE) من می خواهم یک اعتبار سنجی خارجی روی 1 شی باقی مانده در سایت در شروع مطالعه (لطفاً به نقطه 1 مراجعه شود). 3\. و دوباره با استفاده از آموزش و مجموعه تست های مختلف حلقه بزنید... امیدوارم که بتونید در این مورد به من کمک کنید. اگر پیشنهادی برای انتخاب بهترین مدل و اجرای کارآمدتر اعتبارسنجی دارید، خوشحال می شوم در مورد آن بشنوم. متشکرم
چگونه یک حلقه در R بنویسیم تا مدل رگرسیون چندگانه را انتخاب کرده و اعتبار سنجی کنیم؟
396
من معمولاً هنگام تهیه طرح‌ها، انتخاب‌های خاص خود را انجام می‌دهم. با این حال، نمی‌دانم که آیا بهترین روش برای تولید طرح‌ها وجود دارد یا خیر. توجه: نظر راب برای پاسخ به این سوال در اینجا بسیار مرتبط است.
هنگام تهیه طرح ها چه بهترین شیوه ها را باید رعایت کنم؟
92881
من یک دیتافریم متشکل از سری زمانی از اندازه گیری هایی دارم که هر ساعت به مدت 366 روز یا یک سال انجام می شود. در زیر نمونه ای از اندازه گیری های ساعتی برای دو هفته اول نشان داده شده است. من می‌خواهم روزها را با نمایه مشابه اندازه‌گیری‌های ساعتی خوشه‌بندی کنم. با استفاده از R، چگونه می توانم روزهای با پروفایل های مشابه را گروه بندی کنم؟ با تشکر روز 1 روز 2 روز 3 روز 4 روز 5 روز 6 روز 8 روز 9 روز 10 روز 11 روز 12 روز 13 روز 14 ساعت 1 11 14 20 23 51 13 18 15 8 25 13 24 8 48 ساعت 2 2 13 21 19 21 21 111 17 18 Hour3 5 6 7 13 14 6 8 9 7 15 12 11 2 11 Hour4 6 4 6 18 11 2 10 4 5 20 10 10 3 8 Hour5 4 12 5 13 7 9 13 13 13 33 33 25 20 13 46 29 42 27 22 32 29 30 10 Hour7 65 72 70 19 12 72 73 66 75 21 80 74 62 9 Hour8 78 79 878 1051 47 91 82 76 27 ساعت 9 96 64 75 48 34 89 96 91 96 50 101 79 93 31 ساعت 10 73 91 70 80 42 103 63 82 74 79 821 71 82 48 64 65 70 66 84 71 75 58 45 ساعت 12 54 59 99 71 62 68 85 65 58 73 63 103 51 59 ساعت 13 85 69 73 73 78 110 82 80 ساعت 14 78 75 108 72 82 58 80 78 70 74 75 112 75 79 ساعت 15 65 93 95 89 66 72 91 75 78 9916 92 88 94 103 108 88 88 90 93 96 92 91 ساعت 17 97 118 95 95 85 125 113 106 106 97 111 99 94 82 18 18 18 18 18 18 18 18 84 109 108 114 118 83 80 ساعت 19 101 95 105 90 71 84 89 85 103 92 108 109 98 68 ساعت 20 60 55 102 56 726 726 57 52 ساعت 21 55 51 54 57 65 42 58 42 36 59 41 58 52 62 ساعت 22 45 34 23 30 33 51 45 56 37 32 42 24 434 42 42 29 30 44 0 45 5 40 41 31 ساعت24 25 17 30 40 14 24 17 15 28 42 33 34 22 11
خوشه بندی سری زمانی اندازه گیری ها در R
92885
در صفحه تحلیل خوشه ای ویکی پدیا خواندم: > برای مثال، خوشه بندی k-means فقط می تواند خوشه های محدب را پیدا کند، و بسیاری از شاخص های ارزیابی، خوشه های محدب را فرض می کنند. در یک مجموعه داده با خوشه های غیر محدب، نه استفاده از k-means، و نه معیار ارزیابی که > محدب را فرض می کند، صحیح نیست. من نمی توانم ببینم که چگونه یک شاخص ارزیابی، خوشه های محدب را فرض می کند. آیا کسی می تواند این ایده را توضیح دهد؟
فرضیه شاخص های ارزیابی برای خوشه بندی
111544
من سعی می کنم یک مدل پیش بینی مقطعی (پانل پویا) با شکل زیر بسازم: (شامل LDV) $Y_{i,t+1}=a+bY_{i,t}+cX_{i,t }+e_{i,t+1}$ همانطور که نمونه برای مثال شامل کشورهایی است که از نظر اندازه بسیار متفاوت هستند و همه متغیرها در مقادیر مطلق هستند (مثلاً تولید ناخالص داخلی مطلق به دلار) اصطلاح رهگیری به شدت پیش بینی های من را مغرضانه می کند. از آنجایی که رهگیری های من اغلب بسیار منفی است، پیش بینی برای یک کشور کوچک با تولید ناخالص داخلی پایین منفی خواهد بود. اکنون می‌پرسم که آیا می‌توانید مدل را (از نظر دقت پیش‌بینی بالاتر) با حذف ساده رهگیری بهبود ببخشید. انجام این کار به این معنی است که ما از مبدأ عبور می کنیم، اما من نمی دانم که چگونه باید با مدل من مطابقت نداشته باشد. عواقب دیگر چیست؟ من خوانده ام که R^2 می تواند به طور قابل توجهی بالاتر باشد، اما R^2 به هر حال بهترین راه برای ارزیابی یک مدل نیست و از آنجایی که من یک DV عقب مانده را اضافه می کنم، به هر حال نباید به R^2 توجه زیادی داشته باشم.
حذف عبارت رهگیری در یک رگرسیون پویا موجه است؟
22672
آیا مرجع خوبی (در صورت وجود کتاب) در مورد آمار ریاضی متغیرهای تصادفی وابسته وجود دارد؟ چیزی مطابق با کتاب درسی کازلا و برگر، اما برای نمونه های وابسته. من به یک برنامه خاص علاقه مند نیستم، فقط نظریه، البته با فرض استقلال گاهی اوقات به اندازه کافی خوب به نظر می رسد، اما بسیاری از الگوریتم ها در یادگیری ماشین نمونه های iid را فرض می کنند، با این حال می خواهم بگویم اگر داده ها مستقل نباشند چه می شود. بدنه نظریه برای این چیست؟، یا اینکه آیا چنین کتاب یا منبعی تا به حال در این مورد نوشته شده است.
مرجع خوبی در تجزیه و تحلیل نمونه های وابسته
114448
من باید نقاط داده را بر روی یک قانون قدرت قرار دهم و هر یک از اینها یک عدم قطعیت دارد. من از Python، به طور دقیق تر scipy.optimize.curve_fit برای انجام کار استفاده کرده ام، اما نمی دانم چگونه با عدم قطعیت ها کنار بیایم. من در مورد استفاده از یک تناسب خطی در مقیاس log-log فکر کردم، اما در مقایسه با قرار دادن مستقیم بر روی یک قانون قدرت، دقیق‌تر به نظر می‌رسد (بدون توجه به عدم قطعیت‌ها، فقط آزمایش روی داده‌های تولید شده و نویز اضافه شده). من آن را پیدا کردم اما واقعاً به من کمک نمی کند. من بدم نمی آید از R برای انجام کار در صورت نیاز استفاده کنم.
برازش قانون قدرت داده ها با عدم قطعیت
111541
آیا کسی می‌تواند جزئیات نحوه تعیین ترتیب تأخیرهای توزیع‌شده را برای یک مدل $\text{ADL}(p,q)$ در Matlab یا بسته آماری دیگری (و ترجیحاً در ترکیب با تأخیرهای خودرگرسیون) به من ارائه دهد. ? به نظر می‌رسد نمونه‌های کاری کامل با معیارهای انتخاب مدل ($\text{AIC}$ و $\text{BIC}$) در وب‌سایت Matlab برای مدل‌های $\text{VAR}$، مدل‌های $\text{ARMA}$ موجود است. و غیره اما من نمی توانم یکی برای مدل $\text{ADL}(p,q)$ پیدا کنم. من نمی‌دانم چگونه آن مدل‌ها را در $\text{ADL}(p,q)$ بازنویسی کنم، اما احساس مبهمی دارم که چنین چیزی ممکن است. در پایان می‌خواهم این تجزیه و تحلیل را با بررسی کردن دستورات تاخیری $p$ و $q$ و سپس استفاده از این اعداد بطور خودکار برای ایجاد رگرسیون از این به صورت خودکار انجام دهم. بنابراین اساساً من به دنبال یک نمونه کاملاً کارآمد هستم. (من می خواهم تا آنجا که ممکن است بخشی از افزودن و حذف رگرسیورهای دستی را نادیده بگیرم تا به یک ایده سریع از تاخیرهای توزیع شده چندین دارایی دست یابیم).
مدل‌های تأخیر توزیع‌شده خودرگرسیون ADL(p,q): جستجوی «چگونه» ترجیحاً در Matlab (Stata/R/Python/C# و غیره)
107891
Spivey، Grosjean و Knoblich، (2005) با تجزیه و تحلیل داده‌های رفتاری می‌خواستند نشان دهند که نتایج آنها از توزیع تک‌وجهی به‌جای میانگین‌گیری از زیرجمعیت‌ها در توزیع دووجهی به دست آمده است. داده‌های آن‌ها 42 دلار (شرکت‌کنندگان) \ بار 2 (شرایط-\ کنترل\ \&\ گروه) \زمان 16 (آزمایش\ در هر\ شرط) دلار ساختار یافته بود، و برای بررسی توزیع‌ها نمرات درون زیربنایی را استاندارد کردند و سپس آنها را ادغام کردند. : > با آزمایش های بسیار کمی در یک شرکت کننده برای ارائه معیار کافی از > یکنواختی یا دووجهی توزیع این مسیرها > انحرافات، مقادیر برای شرایط گروهی و کنترل با هم > به نمره z در یک شرکت‌کننده تبدیل شد و سپس در بین شرکت‌کنندگان ادغام شد. > > [...] > > ما همچنین در داخل هر شرکت‌کننده، ناحیه زیر مسیر را به‌طور جداگانه برای کارآزمایی‌های گروهی و کنترلی، z-score می‌دهیم، و سپس بین افراد > ادغام می‌کنیم. سپس این توزیع‌های ادغام‌شده برای دو وجهی، با استفاده از ضریب دووجهی (که در مقاله ذکر نشده است)، در میان سایر معیارها، مورد تجزیه و تحلیل قرار گرفتند، که از آن به این نتیجه رسیدند که داده‌های آن‌ها از توزیع یک‌وجهی است. این رویکرد استاندارد-پول-تحلیل به استاندارد در ادبیات ردیابی موش الهام گرفته از این مقاله تبدیل شده است. با این حال، با توجه به اینکه هیچ کار قبلی برای توجیه این روش ذکر نشده است، و می دانیم که تجزیه و تحلیل های گزارش شده در PNAS همیشه قابل سرزنش نیستند، مایلم نظرات ذهن های آماری بزرگتری را نسبت به من جویا شوم. **آیا این رویکرد موجه است؟ آیا این یک روش عینی برای ارزیابی دووجهی بودن در داده‌ها است، یا استانداردسازی داده‌ها را یک‌وجه‌تر از آنچه هست نشان می‌دهد؟ داده های رفتاری آنها را به همان روش استاندارد کنید، بدون اینکه در مورد موضوع بحث کنید: > استفاده از توزیع z مقادیر AUC مسیرها [...]
استاندارد کردن داده ها در درون افراد هنگام تجزیه و تحلیل توزیع ها
32226
من y را تابعی از x می بینم. y یک اسکالر، x بردار بعد n است. من k مشاهدات y و x دارم. اجازه دهید $X = \begin{bmatrix}x_{1,1} & \cdots & x_{1,n}\\\\\vdots & \vdots & \vdots \\\ x_{k,1} و \cdots & x_{k,n}\end{bmatrix}$$ $$Y = \begin{bmatrix}y_1 & x_{1,1} & \cdots & x_{1,n}\\\\\vdots &\vdots & \vdots & \vdots \\\ y_k & x_{k,1} & \cdots & x_{k,n}\end{bmatrix}$$ فرض می‌شود که متغیرهای x تقریباً مستقل باشند (من می‌توانم یک PCA برای تأیید آن انجام دهم، پیامدهای یک مورب غیر هویتی چیست؟ ماتریس؟)، و من می‌خواهم کمیت کنم که کدام متغیرها در x y را بهتر توضیح می‌دهند. ایده این است که به محورهای اصلی در PCA Y نگاهی بیندازیم، به نظر شما این راه درستی است؟ چگونه نتایج را تفسیر کنم؟
تجزیه و تحلیل چند متغیره و PCA
3749
من در حال کشف دنیای شگفت انگیزی به نام مدل های پنهان مارکوف هستم که به آنها مدل های تغییر رژیم نیز می گویند. من می خواهم یک HMM را در R برای تشخیص روندها و نقاط عطف تطبیق دهم. من می خواهم تا حد امکان مدل را عمومی بسازم تا بتوانم آن را روی بسیاری از قیمت ها آزمایش کنم. **آیا کسی می تواند مقاله ای را توصیه کند؟** من (بیش از) تعداد کمی را دیده ام (و خوانده ام) اما به دنبال یک مدل ساده هستم که پیاده سازی آن آسان باشد. همچنین **چه بسته های R توصیه می شود؟** می توانم ببینم تعداد زیادی از آنها HMM را انجام می دهند. من کتاب «مدل‌های مارکوف پنهان برای سری‌های زمانی: مقدمه‌ای با استفاده از R» را خریده‌ام، ببینیم چه چیزی در آن است.
استفاده از HMM در امور مالی کمی نمونه هایی از HMM که برای تشخیص روند / نقاط عطف کار می کند؟
65264
من با استفاده از ماشین های بردار پشتیبان به عنوان طبقه بندی کننده پایه در پیاده سازی مجدد Poselets توسط پایتون آشنا هستم. اما من در استفاده از رگرسیون بردار پشتیبان (نه ماشین های طبقه بندی) برای داده های سری زمانی تازه کار هستم. در مجموعه داده‌هایم، بردار متغیرهای هدف $y_{i,t}$ و یک ماتریس از متغیرهای پیش‌بینی‌کننده (ویژگی‌ها) $X_{i,t}$ دارم که $i$ نشان‌دهنده فرد در جمعیت است (ردیف‌های مشاهدات)، و من این مقاطع مقطعی از اهداف و پیش بینی کننده ها را برای دوره های زمانی زیادی $t$ دارم. من از نماد $x_{i,t}$ برای مشخص کردن کل مجموعه ویژگی ها (کل ردیف) برای $i$ فردی در زمان $t$ استفاده می کنم. نماد $x^{j}_{t}$ نشان دهنده ستونی با ویژگی $j$-th در همه افراد در زمان $t$ است. بنابراین $X_{i,t}^{j}$ ورودی $(i,j)$ ماتریس ویژگی در زمان $t$ است. در مورد من، همه پیش‌بینی‌کننده‌ها متغیرهای پیوسته هستند، اگرچه می‌توانم برخی پیش‌بینی‌کننده‌های طبقه‌بندی را تصور کنم که می‌توانند مفید باشند. همچنین می توانیم فرکانس زمانی را برای همه متغیرهای هدف و پیش بینی ثابت فرض کنیم. سوال من سه مورد است: (1) آیا مجموعه ای از بهترین شیوه های پذیرفته شده برای پیش پردازش پیش بینی کننده ها (امتیاز، عادی سازی، مقیاس بندی مجدد، و غیره) وجود دارد تا ورودی های معقول تری برای مرحله رگرسیون بردار پشتیبان ارائه دهد؟ (به عنوان مثال، آیا می توانید به من مرجعی برای این موضوع اشاره کنید. من قبلاً در آموزش Smola و Scholkopf، کتاب Bishop، و Duda، Hart و Stork نگاه کرده ام، اما هیچ راهنما یا بحث مفیدی در مورد نگرانی های پیش پردازش عملی پیدا نکردم) . (2) آیا مراجع مشابه یا بهترین روش برای مدیریت ورودی های سری زمانی برای پشتیبانی از رگرسیون برداری وجود دارد؟ به عنوان مثال، در یک تنظیم رگرسیون خطی، گاهی اوقات مردم نگران همبستگی مقطعی عبارت های خطا یا متغیرهای پیش بینی هستند. این با در نظر گرفتن میانگین‌ها در بعد زمانی، عموماً با فرض عدم وجود همبستگی خودکار، درمان می‌شود، و (به عنوان مثال رگرسیون Fama-MacBeth) می‌توان نشان داد که حتی در حضور همبستگی مقطعی، برآوردگرهای بی‌طرفانه ضرایب هستند. من هرگز با مکان‌هایی برخورد نکرده‌ام که روش‌های بردار پشتیبان به عنوان حساس به همبستگی مقطعی بین پیش‌بینی‌کننده‌ها یا عبارت‌های خطا توصیف شده باشند. آیا این یک نگرانی است؟ در مدل‌سازی بردار پشتیبان چگونه رفتار می‌شود؟ در نهایت، می‌توانم کارهای زیر را تصور کنم: برای یک بازه زمانی معین $t^{*}$، نه تنها از متغیرهای پیش‌بینی‌کننده استفاده کنید که در همان دوره زمانی فرمول‌بندی شده‌اند، $X_{i,t^{*} }$ بلکه این مجموعه از بردارهای ویژگی را با نسخه‌های عقب افتاده متغیرها، برای هر دوره زمانی بعدی که فکر می‌کنم مرتبط است، تقویت کنید. و در مرحله امتیاز دهی (1) شاید بتوانم تابع وزن رو به زوال را اعمال کنم تا به مشاهدات جدیدتر وزن بیشتری داده شود. اما به نظر من این ایده بدی به نظر می رسد. برای یکی، پیش‌بینی‌کننده‌های $X_{i,t}$ عموماً به دلیل دانش خاص دامنه، شهود، یا روش دیگری برای دریافت اطلاعات قبلی در مورد آنچه ممکن است یک پیش‌بینی موفق باشد، انتخاب می‌شوند. صرفاً حذف تمام نسخه‌های عقب افتاده از یک چیز، کمی شبیه به داده‌کاوی است و من نگرانم که منجر به تطبیق بیش از حد زمان شود. ثانیاً، حتی با روش‌های بردار پشتیبان، هنوز هدفی برای داشتن یک مدل صرفه‌جویی وجود دارد، بنابراین مطمئناً نمی‌خواهم درجاتی از آزادی برای مجموعه عظیمی از نسخه‌های عقب افتاده متغیرهای پیش‌بینی‌کننده وجود داشته باشد. با توجه به همه اینها، چند نمونه از درمان های رگرسیون بردار پشتیبان پذیرفته شده یا کاربردی برای داده های سری زمانی چیست؟ چگونه به این مشکلات رسیدگی می کنند؟ (باز هم، یک مرجع مطلوب است. من به دنبال شخصی برای نوشتن پایان نامه فارغ التحصیلی به عنوان پاسخ در اینجا نیستم.) (3) برای مدلی که برازش می شود، قطعاً مقایسه هایی با مدل های کلاسیک تر انجام می شود، مانند OLS ساده یا GLS. در آن مدل ها دو ویژگی بسیار زیبا وجود دارد. اولاً، درجات آزادی بسیار شفاف است زیرا معمولاً هیچ فراپارامتری برای تنظیم و هیچ مرحله پیش پردازشی فراتر از مراحل امتیازدهی خطی در متغیرهای ورودی وجود ندارد. دوم، پس از برازش توابع رگرسیون، به سادگی می توان دقت طبقه بندی کننده را به اجزای خطی مختلف مدل نسبت داد. آیا آنالوگ هایی برای آنها با رگرسیون بردار پشتیبان وجود دارد؟ هنگام استفاده از توابع هسته، مانند RBF گاوسی، برای تبدیل ورودی‌ها، آیا منصفانه است که بگوییم تنها درجات آزادی اضافی معرفی شده، هر فراپارامترهایی است که بر فرم عملکردی هسته حاکم است؟ این به نظر من کمی اشتباه است، زیرا شما به طور موثر به خود اجازه می‌دهید فضای کاملی از تبدیل‌های بررسی نشده داده‌ها را کشف کنید، که واقعاً فقط در شکل عملکردی تابع هسته ثبت نمی‌شوند. چگونه می توانید مدلی مانند این را به دلیل داشتن آزادی بسیار بیشتر در تطبیق بیش از حد داده ها با تبدیل های غیر خطی نسبتاً جریمه کنید؟ و در آخر، آیا روش های مشابهی برای تجزیه دقت مدل بردار پشتیبان برازش وجود دارد؟ اولین فکر من در اینجا این بود که شما به نحوی نیاز به اندازه گیری چیزی شبیه اطلاعات متقابل طبقه بندی کننده آموزش دیده شامل پیش بینی $x^{j}$ (ستون $j$-امین بردار ویژگی در
سه سوال در مورد رگرسیون بردار پشتیبانی: پیش پردازش ویژگی، مسائل سری زمانی، و سهم دقت نهایی هر ویژگی
114445
برای مدل خطی $$y_i=\beta_0 +\sum_{k=1}^{n}\beta_k x_{ik} + \epsilon_i$$، برآوردهای پارامتر برای روش حداکثر درستنمایی و روش حداقل مربع یکسان است ( به حداقل رساندن $\sum_{i=1}^n\epsilon_i^2$) اگر خطاها در حالت عادی فرض شوند. بنابراین من فکر می کنم که اگر از حداقل مربعات استفاده کنیم، احتمالاً به طور ضمنی به خطاها عادی بودن نسبت می دهیم. آیا این درست است - آیا می توان نشان داد که روش حداقل مربع این کار را انجام می دهد (بدون توسل به راه حل حداکثر احتمال)؟
آیا رگرسیون حداقل مربعات به نرمال بودن خطاها دلالت دارد؟
93136
1. می‌خواهم ثابت بودن را با استفاده از تست adf یا تابع ur.df روی R ur.df(y، نوع = c(هیچ، drift، روند)، تاخیر = 1،selectlags = c(ثابت آزمایش کنم ، AIC، BIC)) سوال من این است که هنگام استفاده از adf.test تابع ترتیب تاخیر را به تنهایی با استفاده از معیارهایی انتخاب می کند، اما اگر مطمئن نیستم چگونه از ur.df استفاده کنیم. از چه ترتیب تاخیری استفاده کنیم؟ 1. هنگام استفاده از adf.test، من با یک خطای عجیب و غریب مواجه می شوم. با تشکر
ترتیب تاخیر در آزمون ur.df یا adf [R]
104271
من این تمرین را انجام دادم: > اجازه دهید $T$ یک متغیر تصادفی باشد که به صورت $\text{Bernoulli}(p)$، $U$ be > یک متغیر تصادفی توزیع شده به صورت $\text{Bernoulli}(q)$ و $W$ یک متغیر تصادفی باشد > به صورت $\text{Poisson}(\lambda)$ توزیع شده است. احتمال > تابع $X =T \cdot U\cdot W\,$ را پیدا کنید. من ابتدا محاسبه کردم: $ \ \ P(T\cdot U = 1) = P(T=1)\cdot P(U=1) = pq \\\ P(T \cdot U = 0) = 1 - P( T\cdot U=1) = 1 - pq $ سپس من اشتباه کردم که فکر کردم: $ P(X=0) =P(T\cdot U = 0 , W> 0) +P(T \cdot U = 1، W= 0) $ فرمول صحیح برای احتمال $ X = 0 $ بود، این به نظر من منطقی و متقارن بود، شهود من مرا به بیراهه می برد. سپس فکر کردم که $ P(X = 0) = P(T\cdot U= 0) + P(W = 0)$ برای بار دوم، شهود من مرا به بیراهه می کشاند. راه حل ها به عنوان راه حل صحیح برجسته می شوند: $P(X= 0) = P(T\cdot U = 0) + P(T\cdot U = 1, W = 0) $ به طور شهودی این نتیجه را برای خودم توضیح دادم: اگر $ P(T\cdot U = 0) $ پس نیازی نیست متغیر تصادفی دیگر را بررسی کنم زیرا هر چیزی ضربدر 0 برابر 0 است. اگر $ P(T\cdot U = 1) $ سپس من باید پواسون 0 باشد تا $ P (X = 0) $ داشته باشد. اما چون شهودم ناکام ماند، دوست دارم بفهمم که راه حل از کدام قانون احتمال برای حل این تمرین استفاده می کند، به نظر من قانون احتمال کل یا هر شکلی از قانون بیز نیست. یک مدرک رسمی از برابری مورد استفاده برای من مفید خواهد بود. همچنین اگر می خواهید به روش جادوگری به دو تلاش اول من اشاره کنید که اشتباه بوده است، سپاسگزار خواهم بود.
تابع احتمال سه متغیر تصادفی ضرب شده، شهود را مستحکم می کند
32225
در اینجا خلاصه خروجی مدل Coxph است که من استفاده کردم (من از R استفاده کردم و خروجی بر اساس بهترین مدل نهایی است، یعنی همه متغیرهای توضیحی مهم و تعاملات آنها گنجانده شده است): coxph (فرمول = Y ~ LT + Food + Temp2 + LT:Food + LT:Temp2 + Food:Temp2 + LT:Food:Temp2) # Y<-Surv(Time,Status==1) n= 555 coef exp(coef) se(coef) z Pr(>|z|) LT 9.302e+02 Inf 2.822e+02 3.297 0.000979 *** Food 3.397e +03 Inf 1.023e+03 3.321 0.000896 *** Temp2 5.016e+03 Inf 1.522e+03 3.296 0.000979 *** LT:Food -2.250e+02 1.950e-98 6.807e+01 -3.309T ***T2094. -3.327e+02 3.352e-145 1.013e+02 -3.284 0.001022 ** غذا:Temp2 -1.212e+03 0.000e+00 3.666e+02 -3.307 0.009 0.009 Food 8.046e+01 8.815e+34 2.442e+01 3.295 0.000986 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Rsquare = 0.123 (حداکثر امکان = 0.858 ) آزمون نسبت درستنمایی = 72.91 در 7 df، p=3.811e تست = 55.79 در 7 df، p=1.042e-09 آزمون نمره (لوگرانک) = 78.57 در 7 df، p=2.687e-14 سؤال این است: چگونه مقادیر ضریب و exp(coef) را در این مورد تفسیر کنیم، زیرا مقادیر بسیار بزرگی هستند؟ همچنین تعامل 3 موردی درگیر است که تفسیر را بیشتر گیج می کند. تمام مثال‌های مربوط به مدل Coxph که تا کنون آنلاین پیدا کرده‌ام، در رابطه با اصطلاحات واسط (که همیشه بی‌اهمیت بوده‌اند) و همچنین مقادیر ضریب (= نرخ خطر) و نمایی از اینها (= نسبت‌های خطر) بسیار ساده بوده‌اند. اعداد بسیار کوچک و آسانی برای کنترل بوده اند، به عنوان مثال. ضریب = 1.73 -> exp(coef) = 5.64. اما همانطور که از خروجی خلاصه (بالا) می توانید ببینید، اعداد من بسیار بزرگتر هستند. و از آنجایی که مقادیر بسیار بزرگی هستند، تقریباً به نظر می رسد که هیچ معنایی ندارند. به نظر می رسد کمی مضحک است که فکر کنیم بقا به عنوان مثال است. 8.815e+34 (نسبت خطر برگرفته از تعامل LT:Food:Temp2) بار کمتر زمانی که برهمکنش یک واحد (؟) افزایش می‌یابد. در واقع من نمی دانم چگونه این تعامل 3 موردی را تفسیر کنم. آیا به این معنی است که وقتی همه متغیرهای موجود در تعامل یک واحد افزایش می‌یابند، میزان بقا به مقدار معینی کاهش می‌یابد (که توسط مقدار exp(coef)-value گفته می‌شود)؟ خیلی خوبه اگه کسی بتونه اینجا کمکم کنه :) در زیر بخشی از برگه داده من برای تجزیه و تحلیل cox استفاده شده است. در اینجا می توانید ببینید که من بارها از مقدار متغیر توضیحی مشابه (یعنی LT، Food و Temp2) برای چندین متغیر پاسخ وضعیت، زمان استفاده کرده ام. این مقادیر متغیر توضیحی در حال حاضر مقادیر میانگین این متغیرها هستند (به دلیل تنظیم کار میدانی در طبیعت، دریافت مقدار متغیر توضیحی جداگانه برای هر فرد پاسخ مشاهده شده ممکن نبود، بنابراین مقادیر میانگین قبلاً در این مرحله استفاده شده است. ، و این به پیشنهاد 1 (؟) پاسخ می دهد (به پاسخ اول مراجعه کنید). پیشنهاد 2 (به پاسخ اول مراجعه کنید): من از R استفاده می کنم و هنوز در آن فوق خدا نیستم. :) بنابراین، اگر من از تابع predict(cox.model,type=expected) استفاده کنم، مقدار زیادی مقادیر مختلف دریافت می کنم و هیچ سرنخی از متغیر توضیحی که آنها به کدام متغیر توضیحی اشاره می کنند و به چه ترتیبی هستند ندارم. یا آیا می توان عبارت تعامل خاصی را در تابع پیش بینی برجسته کرد؟ من مطمئن نیستم که در اینجا کاملاً خودم را روشن می کنم یا خیر. پیشنهاد 3 (به پاسخ اول مراجعه کنید): در قسمت برگه داده زیر می توان واحدهای متغیرهای توضیحی مختلف را مشاهده کرد. همه آنها متفاوت هستند و شامل اعشار هستند. آیا این ربطی به نتیجه کاکس دارد؟ بخشی از برگه داده: زمان (روزها) وضعیت LT(h) غذا (قسمت در روز) دما 2 (ºC) 28 0 14.42 4.46 3.049 22 0 14.42 4.46 3.049 9 1 14.42 4.496 4.496 4.49 4.30 3. 2.595 24 0 15.33 4.45 2.595 19 1 15.33 4.45 2.595 Cheers, Unna
مدل خطر متناسب کاکس و تفسیر ضرایب زمانی که تعامل مورد بالاتر درگیر باشد
93135
هنگام استفاده از اعتبارسنجی متقاطع k-fold در یک شبکه عصبی، آیا به مجموعه اعتبارسنجی جداگانه نیز نیاز دارید؟ یا اینکه استفاده از k-fold به تنهایی برای به حداقل رساندن امکان تمرین بیش از حد خوب است؟
اعتبار سنجی متقاطع K-fold برای شبکه های عصبی: مجموعه اعتبار سنجی جداگانه نیز مورد نیاز است؟
104277
در ادامه این روش‌ها برای درک داده‌های سری زمانی دو بعدی، من روی داده‌های سری زمانی دوبعدی کار می‌کنم که دو ویژگی عمق و دما هستند. وقتی من منحنی عمق در مقابل دما را رسم کردم و تغییرات آن را در طول زمان دیدم، این نوسان فقط در چند مکان رخ می دهد. فرض کنید دما به عمق بستگی دارد و در طول زمان در اعماق کمی تغییر می کند. آیا انجام تجزیه و تحلیل خوشه ای در هر نمونه زمانی و مقایسه آن با نمونه بعدی خوب است؟ نکته این است که از نظر آماری تغییرات در سراسر مهرهای زمانی شناسایی شوند. و سپس تصمیم بگیرید که کدام نمونه های مهر زمانی قابل توجه هستند. چه مدل‌ها/مقاله‌هایی را باید مطالعه کنم تا بینش‌هایی از داده‌ها به دست بیاورم؟
تجزیه و تحلیل خوشه ای بر روی نمونه های سری زمانی
32229
می‌خواهم بدانم آیا داده‌های من روند، یکپارچه، ریشه واحد، همبستگی خودکار یا ناهمسانی دارند. من می‌خواهم همه این کارها را با استفاده از Stata انجام دهم، بنابراین لطفاً مطالبی را پیشنهاد کنید یا کتابی در مورد این موضوعات به من هدایت کنید
به دنبال مواد اقتصاد سنجی سری زمانی مناسب، با مثال های Stata
32223
من در حال مطالعه همبستگی دو متغیر مشاهده شده هستم (آنها را $A$ و $B$ می نامیم). توزیع زیربنایی برای $A$ متقارن است در حدود $0$ (مطمئنا)، با این حال در نمونه من مشاهدات $411$ را دارم که در آن منفی است و $470$ جایی که به دلیل سوگیری نمونه مثبت است. آیا روش صحیحی برای حذف بایاس است که به سادگی 470-411 $ = 59 $ مشاهدات مثبت تصادفی را از متغیر $A$ و مشاهدات مربوط به متغیر $B$ را قبل از انجام تجزیه و تحلیل فیلتر کنیم؟ این امر توزیع مشاهدات را برای $A$ متعادل می کند. خوب، بیایید یک مثال پوچ بیاوریم تا منظورم را بیان کنم. فرض کنید فرآیندی دارید که از یک توزیع نرمال کامل در مرکز 0 پیروی می کند. دانش آموزی هر بار 10000 نمونه را ترسیم کرده و نتیجه را یادداشت می کند. با این حال، به دلایلی که فقط برای او شناخته شده است، او دوست دارد تمام نتایج مثبت را روی برگه های کاغذ قرمز و همه منفی ها را روی ورق های کاغذ بنفش بنویسد. اگر بتواند روی هر برگه 100 عدد بنویسد، در پایان تقریباً 50 برگ قرمز و 50 برگ بنفش خواهد داشت. او تمام ورق را به میز دفترش می برد تا آنالیز را ادامه دهد، اما اتفاق وحشتناکی رخ می دهد: یک موجود کاغذ خوار جهش یافته به او حمله می کند و تنها 23 برگه بنفش او را می خورد (موجود از کاغذ قرمز متنفر است). حالا او هنوز حدود 50 برگ قرمز دارد، یعنی. حدود 5000 عدد مثبت، اما فقط حدود 27 صفحه بنفش، یعنی. 2700 عدد منفی او نمی تواند آزمایش را تکرار کند. او چه کاری می تواند انجام دهد؟ آیا او می تواند به طور تصادفی 23 ورقه قرمز را انتخاب کند و آنها را دور بیندازد تا نمونه ها را دوباره متعادل کند؟
تصحیح سوگیری نمونه
57664
با ارجاع به مقاله من یک سوال در مورد محاسبه p-value دارم. به عنوان مثال، من مقدار قدرت MIC 0.1643 با اندازه نمونه 30 دارم و بقیه پارامترها پیش فرض هستند. همانطور که نویسندگان در اینجا مقادیر p را داده اند چگونه می توانیم مقدار p را برای مقدار قدرت MIC بالا 0.1643 محاسبه کنیم؟
چگونه P-value همبستگی اطلاعات متقابل (MIC) را در R پیدا کنیم؟
57665
آیا می توانم یک پروبیت روی داده های زمان بقا اجرا کنم؟ این گسسته است، و من می‌خواهم ببینم آیا متغیرهای تاخیری روی رویداد شکست تأثیر می‌گذارند یا خیر. با این حال، من ضرایب منفی برای یک رگرسیون پروبیت دریافت می کنم، و مطمئن نیستم که این اتفاق بیفتد. کمک؟
اجرای پروبیت روی داده های زمان بقا؟
99859
من می خواهم یک مدل ARIMA(0,1,4)x(0,1,1) (نوشته شده با فرمت (p,d,q)x(P,D,Q) بدون استفاده از عملگر backshift بیان کنم. از قبل
چگونه یک ARIMA(0,1,4)x(0,1,1)12 را بر حسب Yt و غیره و نه بر حسب عملگر backshift بیان کنم؟
3746
من باید برنامه ای بنویسم تا میانگین نقطه GPS را از جمعیت نقاط پیدا کنم. **در عمل موارد زیر اتفاق می افتد:** * هر ماه یک نفر یک نقطه GPS از همان دارایی ثابت را ثبت می کند. * به دلیل ماهیت GPS، این نقاط هر ماه کمی متفاوت است. * گاهی اوقات شخص اشتباه می کند و دارایی اشتباه را در مکانی کاملاً متفاوت ثبت می کند. * هر نقطه GPS دارای وزن قطعی (HDOP) است که نشان می دهد داده های GPS فعلی چقدر دقیق هستند. نقاط GPS با مقادیر HDOP بهتر بر نقاط پایین تر ترجیح داده می شوند. **چگونه موارد زیر را تعیین کنم:** * با داده ها با 2 مقدار در مقابل یک مقدار واحد مانند سن برخورد کنید. (میانگین سن را در جمعیتی از افراد بیابید) * نقاط پرت را تعیین کنید. در مثال زیر، اینها [-28.252، 25.018] و [-28.632، 25.219] خواهند بود * پس از حذف نقاط پرت، میانگین نقطه GPS را در این پیدا کنید که ممکن است [-28.389، 25.245] باشد. * اگر بتواند وزن ارائه شده توسط مقدار HDOP را برای هر امتیاز کار کند، یک جایزه خواهد بود. ![متن جایگزین](http://i.stack.imgur.com/ecYHJ.png)
پیدا کردن میانگین نقطه GPS
114447
من فهرستی از متغیرهای پیش بینی کننده برای قرار دادن در مدل رگرسیون لجستیک دارم. چگونه می دانم که باید یک تحلیل رگرسیون لجستیک ساده (با استفاده از تابع 'glm' در R) یا یک رگرسیون لجستیک با اثر مختلط (با استفاده از تابع 'glmer' در R) انجام دهم؟
چگونه می توانم بین یک رگرسیون لجستیک اثر ساده و ترکیبی انتخاب کنم؟
105636
همانطور که می‌دانیم، می‌توانیم بهره اطلاعات نسبی (RIG) را به صورت زیر محاسبه کنیم: $RIG = \frac{H(x) - H(x|a)}{H(x)}$. در درخت های تصمیم دودویی، $H(x|a)$ را برای تقسیم تک متغیره برای متغیر $x_i$ به صورت زیر محاسبه می کنیم: $-(p(x_i>a)H(x|x_i>a) + p(x_i>a)H (x|x_i>a))$. پس این بدان معناست که برای هر نقطه نگاه می کنیم که آیا این نقطه از سمت چپ یا از راست مرز تصمیم فعلی است. حال، سوال من این است: آیا می توان $RIG$ را برای شرایط پیچیده در گره های درختی باینری محاسبه کرد؟ مانند $(x_i<3)\;یا\;(x_i > 7)$؟ بیایید بگوییم که تمام نقاطی که $x_i < 3$ برای آنها در منطقه $I$ خواهد بود، نقاطی که $x_i$ دارند در منطقه $II$ خواهند بود، و هر نقطه با $x_i>7$ در منطقه $III خواهد بود. $. با استفاده از این نماد، آیا محاسبه آنتروپی نسبی در این مورد به صورت زیر از نظر ریاضی درست است: $-(p_{I}H_{I}+p_{II}H_{II}+p_{III}H_{III})$؟ متشکرم.
محاسبه سود اطلاعات نسبی برای تقسیم‌بندی‌های متعدد در درخت‌های تصمیم
57668
من 54 مقدار از دست رفته در مجموعه داده های 459 موردی خود دارم. متغیرها همه باینری هستند (0-1). من می‌خواهم با استفاده از بسته «mi» برای R از حذف چندگانه برای جلوگیری از حذف فهرستی استفاده کنم. من به سادگی از دستور: mi(mydata) استفاده کردم که 30 تکرار و 3 انتساب پیش‌فرض باقی می‌ماند. **سوال: بهترین روش برای انجام یک انتساب چندگانه برای متغیرهای باینری با استفاده از بسته mi` چیست؟**
انتساب چندگانه با متغیرهای باینری
105635
این سوال در رابطه با مجموعه داده ای است که قبلاً در اینجا بحث کرده ام. من سعی می‌کنم تعیین کنم که آیا یک درمان نه تنها بر تعداد مراجعه‌های بیمار به پزشک تأثیر می‌گذارد، بلکه مدت زمان بهبودی آسیب را نیز تحت تأثیر قرار می‌دهد. این دو ذاتاً به هم مرتبط هستند. اکنون ساختار گروه در طول زمان به دلیل سانسور تغییر می کند. هنگامی که یک زخم بهبود می یابد، بیمار نیازی به مراجعه به پزشک ندارد و کسانی که در گروه باقی می مانند کسانی هستند که زمان بهبودی طولانی تری دارند و در نتیجه مراجعه به پزشک بیشتر است. به دلیل این تفسیر شهودی از داده ها، من فکر کردم که یک مدل خطرات متناسب کاکس (مشکل زیر) و/یا معکوس منحنی های Kaplan-Meier برای نشان دادن اینکه چگونه درمان اولیه بر نتیجه تأثیر می گذارد خوب است. ابتدا به میانه و میانگین تعداد ویزیت های همه بیماران که حدود سه بود نگاه کردم. سپس کل گروه را به بیمارانی تقسیم کردم که به $> 3$ ویزیت و $\leq 3$ نیاز داشتند. سپس از تابع زیر در کتابخانه R (بقا) km <- km(Surv(Time, Visits>3)~Treatment, data=mydata) plot(km, fun=event) استفاده کردم. این نمودار زیر را ایجاد کرد ![KM طرح](http://i.stack.imgur.com/Ou7Wt.png) سپس من می خواستم اساساً همین کار را برای مدل مخاطرات coxph انجام دهم، اما متوجه شدم که تفسیر کمی بد است زیرا درمان 2 منجر به HR پایین می شود، که دور زدن ذهن شما کمی کار است و من صادقانه فکر نمی کنم درست باشد، زیرا من سعی می کنم به خطرات تجمعی نگاه کنم. کد مورد استفاده در R این بود: cox <- coxph(Surv(Time, Visits>3)~Treatment, data=mydata) summary(cox) cox(formula = Surv(Time, Visits>3) ~ Treatment, data=mydata) n= 4302، تعداد رویدادها = 1514 (41 مشاهده به دلیل فقدان حذف شد) coef exp(coef) se(coef) z Pr(>|z|) درمان 2 -0.36705 0.69278 0.05318 -6.902 5.12e-12 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 exp(coef) exp(-coef) پایین 0.95 بالا .95 درمان 2 0.6928 1.443 0.6242 0.768 0.768 se = 0.008 ) Rsquare = 0.011 (حداکثر ممکن = 0.99) آزمون نسبت درستنمایی = 48.43 در 1 df، p=3.419e-12 آزمون Wald = 47.64 در 1 df، p=5.119e-12 نمره (logrank) آزمون (logrank) f در 1 = 4 p=3.986e-12 بنابراین می‌پرسم * آیا تابع مخاطرات تجمعی در R برای این کار وجود دارد؟ * آیا حتی طبقه بندی بیماران بر اساس متغیر وابسته به زمان به دو گروه خوب است؟ * چگونه می‌خواهید نسبت خطر ناشی از این مدل را واقعاً تفسیر کنید (به اصطلاح ساده)؟ * آیا من این را کاملاً اشتباه کرده ام؟ به خاطر نظرات و کمک شما.
تابع خطر تجمعی که در آن وضعیت به زمان وابسته است
65265
من در حال کار بر روی گزارشی هستم که از طریق آن برای کاربران نهایی ارسال می شود که باید هرگونه تغییرات بزرگ در مقادیر روزانه در 30 روز گذشته را برای آنها علامت گذاری کند. این مقادیر تفاوت‌های روزانه هستند که میانگین آن را صفر فرض می‌کنیم. برای روشن کردن اطلاعات بیشتر، مقادیر بازدهی متناسب به یک نمونه کارها هستند. آن‌ها برای اندازه‌گیری تغییر در ریسک‌پذیری جنبه‌های مختلف پرتفویی استفاده می‌شوند که دائماً مدیریت می‌شود، بنابراین ریسک‌پذیری باید همیشه بر اساس استراتژی سرمایه‌گذاری مرتبط با آن پرتفوی معین در «حدود همان سطح» باقی بماند. همانطور که گفته شد، ریسک از روز به روز کمی نوسان خواهد کرد، اما دوباره متعادل می شود و بنابراین تغییر در ریسک روزانه باید در حدود صفر در نوسان باشد - تقریباً برای نیمی از زمان مثبت و تقریباً نیمی از زمان منفی. این تجزیه و تحلیل صرفاً به هرگونه انحراف روزانه بزرگ اشاره می کند تا بتوان آنها را بررسی کرد. بنابراین، فرض کنید داده‌های زیر را داریم: روز: تغییر از روز قبل: 1 -40 2 30 3 15 4 12 5 -34 6 -2 ... 30 12 و همانطور که قبلاً گفتم، آنها به جهت تغییر، فقط برای علامت گذاری هر روز که در آن تغییر بزرگی از لحاظ آماری معنی دار است. من کنجکاو هستم که چگونه آمار مربوط به این را به درستی محاسبه کنم / کدام توزیع بهتر است برای تعیین سطوح احتمال برای این مجموعه داده ها استفاده شود. آنچه پیشنهاد شده است این است که ابتدا به مربع تغییرات نگاه کنید (به جای مقادیر اصلی، زیرا تمام چیزی که ما به آن اهمیت می‌دهیم بزرگی است): 1. برای محاسبه std dev به صورت $\sqrt{ \dfrac{\sum \left ( x_i - 0 \right)^2 }{29}}$ - به عبارت دیگر **مقدار مورد انتظار صفر 2 را فرض کنید. برای محاسبه std dev به عنوان $\sqrt{ \dfrac{\sum \left( x_i - \bar{x} \right)^2 }{29}}$ - به عبارت دیگر، از میانگینی که برای این نمونه محاسبه می‌کنیم استفاده کنید و سپس مقدار هر روز را بگیرید و آن را تقسیم کنید. توسط این std_dev برای محاسبه قدر آن. من در اینجا با چند مورد مشکل دارم، اما به خصوص ایده شماره 2، زیرا معتقدم میانگین باید صفر باشد. به طور کلی، روش صحیح تجزیه و تحلیل دلتاهایی با مقدار مورد انتظار صفر چیست و از چه توزیعی برای یک مجموعه داده 30 نمونه ای برای یافتن مقادیر معنی دار آماری استفاده می کنید؟ توجه داشته باشید که داده های تاریخی موجود است / به راحتی قابل جمع آوری است. اگر فرض کنیم تغییرات روزانه تقریباً به طور معمول توزیع می شوند، آیا مربع آنها (فقط اندازه گیری انحراف از صفر، صرف نظر از مثبت یا منفی بودن) از طریق Chi-Square توزیع می شود؟ ... یا اگر قدر مطلق آنها را در نظر بگیریم می تواند یک تا شده- عادی کار کند؟ من فقط به دنبال چیزی برای نشان دادن چگونگی توزیع بزرگی تغییر هستم... هیچ کس با فرض اینکه تغییرات به طور معمول توزیع شده است در صورت لزوم مشکلی ندارد... امیدوارم این منطقی باشد، اما، اگر نه، لطفا به من اجازه دهید بدونم کجا میتونم بیشتر توضیح بدم با تشکر (من در ابتدا این سوال را اینجا پرسیدم و توصیه شد آن را اینجا بپرسم - امیدوارم کسی در اینجا بتواند پاسخ خوبی به من بدهد)
توزیع احتمال صحیح / روش برای شناسایی انحرافات بزرگ در مجموعه ای از تغییرات روزانه به ارزش پرتفوی
97158
من می خواهم یک معادله را با ضریب لاگرانژ حل کنم. من روش حذف را بلدم اما باید این روش را بدانم. نمی دانم آیا کسی به من اجازه دهد که چگونه $\mu$ و 3 متغیر ناشناخته ($\hat A$) را به صورت جبری تخمین بزنم. $n.\hat\mu$ + $n_1\hat A_1$ + $n_2\hat A_2$ + $n_3 \hat A_3$ + $0 \lambda$ = $y_{..}$n_1\hat\mu$ + $n_1\hat A_1$ + $1 \lambda$ = $y_{1.}$ $n_2\hat\mu$ + $n_2\hat A_2$ + $1 \lambda$ = $y_{2.}$n_3\hat\mu$ + $n_3 \hat A_3$ + $1 \lambda$ = $y_{3.}$0$\hat\mu$ + $1\hat A_1 $ + $1 \ کلاه A_2 $ + $ 1 \ کلاه A_3 $ + $ 0 \ لامبدا $ = $ 0 $
حل یک معادله با بیش از دو متغیر به صورت جبری
109312
فرض کنید من یک تابع $g_0\در L_2(\mathbb{R})$ دارم به طوری که $(X_i,Y_i)$, $i=1,...,n$ را مشاهده می کنیم به طوری که $$ \begin{تراز کردن* } Y_i & = g_0(X_i) + V_i \end{align*} $$ می‌خواهیم $g_0$ را تخمین بزنیم، و از آنجایی که $g_0\in L_2(\mathbb{R})$، می‌توانیم $g_0$ را با استفاده از یک سری متعارف $\\{h_k\\}_{k\in\mathbb{N}}$ تقریبی کنیم. بنابراین برای هر اندازه نمونه $n$، با در نظر گرفتن سری کوتاه شده $g_{p_n}(x) = \sum_{k=1}^{p_n}\alpha_k h_k(x)$، $g_0$ را تقریب می‌زنیم، به طوری که $ \alpha_k = \langle g,h_k\rangle$ و برآوردگر من $\hat g = \sum_{k=1}^{p_n}\hat\alpha_kh_k$ به صورت $$ \begin{align*} \hat{\boldsymbol \alpha} = \arg\min_{\boldsymbol{\alpha}\in تعریف می‌شود \mathbb{R^{p_n}}} \sum_{i=1}^{n}\left[Y_i - \sum_{k=1}^{p_n}\alpha_kh_k\right]^2\\\ \end{align*} $$ نکته اینجاست که من می‌خواهم ضرایب برازش $\hat{\boldsymbol\alpha}$ را محدود کنم که برای هر ورودی $\hat{\boldsymbol \alpha}$, $\alpha_k$، من $|\alpha_k| \leq C$ برای برخی $C$ به شدت بزرگتر از $\|g_0\|_{\infty}$. من می‌دانم که اگر بخواهیم این تغییر را به‌صورت اکتشافی استدلال کنیم، تنها کاری که انجام می‌دهیم این است که همه چیز را از نظر مقدار کمتر یا برابر با $C$ در آستانه قرار دهیم، اما چگونه این محدودیت راه‌حل استاندارد حداقل مربعات $\hat را تغییر می‌دهد. {\boldsymbol \alpha}$ به شکل بسته؟
تنظیم مجموع مربعات محدودیت
73858
من از منحنی‌های ROC برای مقایسه روش‌های مختلف استفاده می‌کنم، اما مطمئن نیستم که آیا نیاز به شبیه‌سازی مجدد مجموعه داده‌ها با استفاده از دانه‌های مختلف در R به منظور کاهش مشکل تصادفی برای یک خروجی خاص دارم یا خیر. در اینجا یک طرح کلی از شبیه سازی من است: 1. تابع 'generate.data' برای شبیه سازی داده های برخی از توزیع ها استفاده می شود، و با شبیه سازی، من می دانم که کدام داده ها مثبت واقعی هستند. ** مولد اعداد تصادفی با ثابت کردن seed در R** کنترل می شود. 2. تابع «check.models» برای آزمایش در مجموع 5 روش، و برگرداندن مقادیر استفاده شده برای رسم منحنی ROC برای هر روش استفاده می شود. همچنین برای هر منحنی (روش)، AUC گزارش شده است. 3. تابع 'plot.roc' برای رسم استفاده می شود. در مرحله شماره 1، برخی عوامل دیگر برای تغییر وجود دارد تا داده ها تحت «جایگزین» های مختلف قرار گیرند. وقتی مراحل #1 و #2 بالا را با استفاده از «seed=123» اجرا کردم و روشی را با بالاترین AUC انتخاب کردم، یک مجموعه از نتایج را دریافت کردم. با این حال، وقتی با استفاده از یک دانه دیگر (مثلاً «seed=456») دوباره اجرا می‌کنم، مجموعه دیگری از نتایج را دریافت می‌کنم **که با اولین اجرا یکسان نیست**. بنابراین، من فکر می‌کنم به شدت باید شبیه‌سازی خود را روی «seed»‌های مختلف در R اجرا کنم تا داده‌ها را در مرحله #1 تولید کنم، به طوری که مسئله «تصادفی» استفاده از یک مجموعه داده خاص کاهش می‌یابد. درست میگم؟ اگر چنین است، پس باید میانگین AUC را برای هر روش در سراسر (مثلاً 1000) شبیه سازی گزارش کنم و بالاترین را در بین روش های مقایسه شده انتخاب کنم؟ با تشکر
منحنی های ROC و AUC در شبیه سازی برای مقایسه مدل ها
32220
من 9 بردار داده عددی دارم. من می خواهم برای این 9 بردار نمودارهای همبستگی ایجاد کنم. با این حال برخی از بردارها دارای طول متفاوتی نسبت به برخی دیگر هستند - برخی تا 240 مشاهده دارند در حالی که برخی دیگر فقط 159 مشاهده دارند. R فقط می تواند نمودارهای همبستگی برای بردارهایی با طول یکسان ایجاد کند. برای اینکه طول بردارها یکسان باشد، من فقط باید از این استفاده کنم: طول(x) = طول(y) مشکل این است که این بردار تا 81 مشاهده از برخی بردارها را برش می دهد. آیا راهی برای حل این مشکل وجود دارد، به جز حذف مشاهدات؟ اگر لازم است مشاهدات را قطع کنم، چگونه می توانم تعیین کنم کدام مشاهدات را قطع کنم؟
نمودارهای همبستگی با مقادیر گمشده
114441
من با مجموعه داده Abalone در R بازی می کنم و این مقاله را دنبال می کنم. مجموعه داده دارای 8 متغیر است که برای پیش بینی تعداد حلقه ها در نظر گرفته می شود. برای یافتن همبستگی زوجی، پست وبلاگ این کار را انجام می دهد: as.matrix(cor(na.omit(abalone[,-1]))) و به این نتیجه می رسد که داده ها به شدت همبستگی دارند. سوال من این است که چگونه به این نتیجه می رسند؟ برای رسیدن به این نتیجه باید به دنبال چه اطلاعاتی باشم؟ در اینجا کد > aburl = 'http://archive.ics.uci.edu/ml/machine-learning-databases/abalone/abalone.data' > abnames = c('sex','length','diameter' ,'height','weight.w','weight.s','weight.v','weight.sh','rings') > abalone = read.table(aburl, header = F , sep = ',', col.names = abnames) > as.matrix(cor(na.omit(abalone[,-1]))) قطر قطر ارتفاع وزن.w وزن. طول حلقه s weight.v weight.sh 1.0000000 0.9868116 0.8275536 0.9252612 0.8979137 0.9030177 0.8977056 0.5567196 قطر 0.9868116 1.0000000 0.8336837 0.9254521 0.8931625 0.8931625 0.8931625 0.899 0.5746599 قد 0.8275536 0.8336837 1.0000000 0.8192208 0.7749723 0.7983193 0.8173380 0.5574673 0.5574673 0.5574673 وزن. 5574673 وزن. 0.8192208 1.0000000 0.9694055 0.9663751 0.9553554 0.5403897 وزن.s 0.8979137 0.8931625 0.7749723 0.77497230050050. 0.9319613 0.8826171 0.4208837 وزن.v 0.9030177 0.8997244 0.7983193 0.9663751 0.9319613 1.00000000000000000 0.00000000000 0.9319613 0.8977056 0.9053298 0.8173380 0.9553554 0.8826171 0.9076563 1.0000000 0.6275740 حلقه 0.5567194 0.5567194 0.5567194 0.5567194 0.556700000 0.5403897 0.4208837 0.5038192 0.6275740 1.0000000 > pairs(abalone[,-1] ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/xD98j.png* وقتی مشکل چیست** سؤالات داده ها به شدت همبستگی دارند؟ * چگونه می توان به این نتیجه رسید که داده ها با نگاه کردن به ماتریس یا با نگاه کردن به نمودار پراکندگی به شدت همبستگی دارند؟ آیا به این دلیل است که نمودار پراکندگی تقریباً در هر سطر-ستون خطوط خطی را نشان می دهد؟
داده های همبسته به چه معناست و چگونه می توانم آنها را با نمودار پراکنده تجسم کنم؟
52108
متغیرهای تصادفی $K$ گاوسی $Z_1, Z_2,\ldots,Z_K$ را در نظر بگیرید که با $Z_1 \sim \mathcal{N}(\mu,\sigma^2)$ و بقیه متغیرهای تصادفی $\sim \ مستقل از یکدیگر هستند. mathcal{N}(0,\sigma^2)$. اجازه دهید $m_1({\bf Z})$ و $m_2({\bf Z})$ توابعی از ${\bf Z} = (Z_1,\ldots,Z_K)$ باشند به طوری که $m_1({\bf Z })$ متغیر تصادفی با بزرگترین قدر و $m_2({\bf Z})$ متغیر تصادفی با دومین قدر بزرگ در بین متغیرهای تصادفی $K$. من در تلاش برای پیدا کردن میانگین نسبت $R = \frac{|m_2({\bf Z})|}{|m_1({\bf Z})|}$ هستم. **Q1:** رویداد $m_1({\bf Z})=0$ معادل بردار ${\bf Z}= {\bf 0}$ است و بنابراین با احتمال صفر رخ می‌دهد. بنابراین، من فرض کردم که $R$ به خوبی تعریف شده است. محدوده $R$ $(0,1]$ است. بنابراین، میانگین $R$ باید وجود داشته باشد. آیا من در فرض وجود میانگین صحیح هستم؟ **Q2:** اگر میانگین وجود دارد، عبارت برای میانگین با $$ E[R]= \int\limits_{-\infty}^{\infty}\ldots\int\limits_{-\infty}^{\infty} داده می‌شود \frac{|m_2({\bf z})|}{|m_1({\bf z})|} \frac{1}{(2\pi \sigma^2)^{K/2}} \exp \\{-\frac{(z_{1}-\mu)^2+\sum_{i=2}^{K}z_{i}^2}{2\sigma^2}\\} dz_{1}\ldots dz_{K} به طور کلی، برای $ K> 2 $، این انتگرال را نمی توان به صورت بسته ارزیابی کرد و آیا ادغام عددی حتی برای مقادیر $K> 2 $ امکان پذیر است. **Q3:** در تلاشم برای پاسخ به Q2، انتگرال $K$-بعدی را بر حسب انتگرال های تک بعدی مکرر بیان کردم این بود که سه حالت زیر را در نظر بگیریم. = Z_1$ و $E_1$ میانگین شرطی نسبت نماد زمانی که $m_1({\bf Z}) = Z_1$ باشد. $Z_1$ دومین قدر بزرگ را دارد، یعنی $m_2({\bf Z}) = Z_1$. فرض کنید $P_2$ احتمال شرطی $m_2({\bf Z}) = Z_1$ باشد و $E_1$ میانگین شرطی نسبت نماد زمانی که $m_2({\bf Z}) = Z_1$ باشد. 3. $Z_1$ نه بزرگترین و نه دومین قدر بزرگ را دارد. فرض کنید $P_3$ احتمال شرطی باشد که این مورد است و $E_3$ میانگین شرطی زمانی که این اتفاق می‌افتد. سپس، $E[R] = E_1P_1+E_2P_2+E_3P_3$. من توانستم هر یک از این اصطلاحات را به صورت انتگرال های تک بعدی مکرر با محدودیت های مناسب بیان کنم. **آیا این رویکرد درستی است؟** عبارات هر یک از اصطلاحات در زیر آورده شده است. $E_1 = \int\limits_{-\infty}^{\infty} \frac{1}{|z_1|} \frac{1}{\sqrt{2\pi \sigma^2}} e^{-\ frac{(z_1-\mu)^2}{2 \sigma^2}} (K-1) \int\limits_{-|z_1|}^{|z_1|} \frac{|z_2|}{\sqrt{2\pi \sigma}} e^{-\frac{z_2^2}{2 \sigma^2}} \left[ \int\limits_{-|z_2|} ^{|z_2|} \frac{1}{\sqrt{2\pi \sigma^2}} e^{-\frac{z^2}{2\sigma^2}} dz\right]^{K-2} dz_{2} dz_{1}$، که در آن $\Phi(.)$ تابع توزیع استاندارد گاوسی است. با استفاده از تغییر متغیرهای $x=\frac{z_1-\mu}{\sigma}$ و $y=\frac{z_2}{\sigma}$، $E_1 =\int\limits_{-\infty} داریم. {\infty} \frac{1}{|x+\frac{\mu}{\sigma}|} \phi(x) (K-1) \int\limits_{-|x+\frac{\mu}{\sigma}|}^{|x+\frac{\mu}{\sigma}|} |y| \phi(y) \left[ 2\Phi( |y|) -1 \right]^{K-2} dy dx$ به طور مشابه، $P_1 = (K-1) \int\limits_{-\infty}^ {\infty} \phi(x) \int\limits_{-|x+\frac{\mu}{\sigma}|}^{|x+\frac{\mu}{\sigma}|} \phi(y) \left[ 2\Phi( |y |) -1 \right]^{K-2} dy dx $, $E_2=\int\limits_{-\infty}^{\infty} \frac{1}{|x|} (K-1) \phi(x) \int\limits_{-|x|-\frac{\mu}{\sigma}}^{|x|-\frac{\mu}{\sigma}} |y+ \frac{\mu}{\sigma}| \phi(y) \left[ 2\Phi\left( \Bigg|y+\frac{\mu}{\sigma} \Bigg|\right) -1\right]^{K-2} dy dx$, $ P_2 = (K-1)\int\limits_{-\infty}^{\infty} \phi(x) \int\limits_{-|x|-\frac{\mu}{\sigma}}^{|x|-\frac{\mu}{\sigma}} \phi(y) \left[ 2\Phi\ left( \Bigg|y+\frac{\mu}{\sigma} \Bigg|\right) -1 \right]^{K-2} dy dx$, $E_3=(K-1)(K-2)\int\limits_{-\infty}^{\infty} \frac{1}{|x|} \phi(x) \int\limits_{-|x |}^{|x|} |y| \phi(y) \left[ \Phi\left( |y|-\frac{\mu}{\sigma} \right) -\Phi \left( -|y|-\frac{\mu}{\sigma } \right)\right] \left[ 2\Phi\left( |y|\right) -1\right]^{K-3}dydx$، و $P_3=(K-1)(K-2)\int\limits_{-\infty}^{\infty} \phi(x) \int\limits_{-|x|-\frac{\mu}{\ سیگما}}^{|x|-\frac{\mu}{\sigma}} \phi(y) \left[ \Phi\left( |y|-\frac{\mu}{\sigma} \right) -\Phi \left( -|y|-\frac{\mu}{\sigma} \right)\right] \left[ 2\Phi \left( |y|\right) -1\right]^{K-3} dy dx$. من توانستم میانگین نمونه را با تولید تعداد زیادی نمونه تصادفی $\bf Z$ ​​بر اساس توزیع پیدا کنم. من سعی می کنم بفهمم که آیا ادغام عددی اصلا امکان پذیر است یا خیر. در استفاده از matlab برای ارزیابی عبارات برای $E_1$ تا $E_3$ و $P_1$ تا $P_3$، پاسخ‌ها با میانگین نمونه مطابقت ندارند. این آخرین معما در تحقیق من است و ورودی های شما بسیار قدردانی خواهد شد.
میانگین تابعی از متغیرهای تصادفی گاوسی $K$
99854
من در حال حاضر روی یک مجموعه داده بایگانی کار می کنم (General Social Survey 1985). در یک معیار، از شرکت کنندگان خواسته می شود تا 5 ویژگی شغلی را بر اساس درجه ترجیح رتبه بندی کنند. به عبارت دیگر، شرکت کنندگان تصمیم می گیرند که در یک کار فرضی کدام ویژگی مهم ترین، کدام ویژگی مهم ترین و غیره است. من به طور خاص علاقه مند هستم که آنها 2 مورد از 5 ویژگی را رتبه بندی کنند، زیرا آنها به خوبی با ساختاری که من مطالعه می کنم مطابقت دارند. این 2 مشخصه در واقع به هر دو نقطه افراطی ساختار من وارد می شود. به عنوان مثال، اگر سازه مورد علاقه من خودمختاری شغلی بود، یکی از ویژگی ها «تصمیم گیری مهم در شغلم» و دیگری «نظارت از نزدیک» بود. در مدل من، سازه خودمختاری پیش بینی سازه دیگری در این مجموعه داده است. ساختار دیگر پیوسته است. اگر داده های اولویت مشخصه مقیاس لیکرت ساده بود، کارها بسیار آسان تر می شد. من احتمالاً سعی می کنم این دو مورد را در یک امتیاز واحد ترکیب کنم. مشکل این است که من نمی دانم چگونه این نوع رتبه بندی را برای دو ویژگی شغلی خود دوباره رمزگذاری / تجزیه و تحلیل کنم. کاری که من تاکنون انجام داده‌ام، محاسبه امتیاز تفاوت بین «تصمیم‌گیری‌های مهم در شغلم» و «نظارت دقیق» است، که به من امکان می‌دهد ترجیح نسبی برای یکی یا دیگری داشته باشم. به من پیشنهاد می کنید چه کار کنم؟
تبدیل متغیر مرتب شده در رتبه
57669
من می دانم که در مورد رگرسیون لجستیک، ما به سادگی وزن های خود را با مثال ورودی برای طبقه بندی ضرب می کنیم. اما دقیقا معادله ای که در مورد SVM محاسبه می کنیم برای پیش بینی چیست؟ من قبلاً از طریق svmclassify Matlab رفته ام و کمکی نمی کند. برای پاسخ کاملاً سپاسگزار خواهم بود.
دقیقا معادله طبقه بندی SVM برای مثال جدید چیست؟
104274
فرض کنید که ما داده های زیر را داریم ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Nd9Ux.png) من تجزیه ماتریس کوواریانس و مقدار ویژه را انجام داده ام >> means=mean(X); >> centered=X-repmat(means,10,1); >> کوواریانس=(مرکز'*مرکز)/(9); >> [V,D]=eig(کوواریانس); >> [e,i]=sort(diag(D),'descend'); >> sorted=V(:,i); e e = 1.0e+03 * 3.8861 0.4605 0.1162 0.0465 >> مرتب شده مرتب شده = 0.5080 0.5042 0.3747 -0.5893 0.0090 -0.6091 -0.70930 -0.70930 -0.6091 -0.70930 - 0.70930 -0.2747 0.2647 0.0955 0.5030 0.3941 0.7633 من همچنین توزیع درصدی را محاسبه کرده ام (e./sum(e))*100 ans = 86.1796 10.2125 2.5776 در ابتدا دو عدد را انتخاب می کنند، در مرحله اول می خواهند از 1.0303 استفاده کنند. 96% از کل واریانس، حالا لطفا چگونه می توانم برای تحلیل عاملی ادامه دهم؟ دستورات متلب همچنین کمک بصری بسیار خوب خواهد بود، با توجه به این پاسخ مراحل انجام شده در تحلیل عاملی در مقایسه با مراحل انجام شده در PCA من گیج شدم، پس لطفا برای بتن داده شده لطفا مثال عددی، چگونه می توانم ادامه دهم، نه فقط تعاریف، به مراحل عددی مشخص نیاز دارم. با تشکر از قبل ویرایش شده: چون من دو بردار ویژه اول را انتخاب کرده ام، PCA را نیز انجام داده ام. عوامل = مرتب شده (:، 1: 2) فاکتور = 0.5080 0.5042 0.0090 -0.6091 0.8560 -0.3490 0.0955 0.5030 >> PCA=X*factors PCA = 299.5739 24.856 24.856. 183.9319 36.7606 156.7749 11.6325 58.1864 17.0585 236.6723 35.3584 176.0291 68.7008 208.4237 458.42376.4237.451. 206.2131 3.4430 چگونه می توانم بارگذاری ها را محاسبه کنم؟ چگونه می توانم چرخش های متعامد را انجام دهم؟
تحلیل عاملی برای داده های داده شده با کمک نرم افزار matlab
32221
من دو سری زمانی a و b دارم که می خواهم مقایسه کنم. به دلیل تفاوت دامنه آنها، ابتدا آنها را عادی می کنم. a(i)، b(i) اعداد طبیعی برای i=1،...،N دو نرمال سازی متفاوت هستند: (mean و std_dev هر دو به کل سری زمانی اشاره دارند) 1) `a'(i) := a( i) / mean(a)` _goal_ : mean(a') = 1 2) `a'(i) := [ a(i) - mean(a) ] / std_dev(a )` _goal_ : عادی سازی معمول چیزی که من را گیج می کند این است که چگونه معانی پس از آن تبدیل ها متفاوت است؟ آیا تحول اول اصلاً معنی دارد؟
چگونه دو سری زمانی را برای مقایسه عادی کنیم؟
57661
من سعی می کنم یک توزیع احتمال شرطی $P(B|A)$ را روی متغیرهای پیوسته که چیزی شبیه به این هستند ارائه کنم: A B ---------- 2 5 5 7 8 10 10 15 12 25 .......... و غیره. چگونه می توانم پیدا کنم که چه توزیعی متناسب با پرونده من است؟ از آن‌چه من می‌دانم، این یک فرآیند 2 مرحله‌ای است. اول این است که من سعی می‌کنم از کدام توزیع مناسب برای مدل‌سازی استفاده کنم و سپس پارامترها را با فرض آن توزیع که می‌توان در محاسباتم استفاده کرد، تخمین زد.
تخمین توزیع احتمال شرطی از داده های عددی
95570
سلام من مطمئن نیستم که چگونه احتمالات پیش بینی شده را برای مدل رگرسیون لجستیک خود تفسیر کنم. من سعی می کنم بررسی کنم که آیا این متغیرها بر شانس چاق شدن تأثیر می گذارد یا خیر. چگونه این نتایج را تفسیر کنم؟ REGION مرجع- شرق - شمال 0.62 - جنوب 0.54 - غرب 0.47 پیوند پیشنهادی که باعث تکراری شدن سؤال من می شود روشنگر است، اما معنی آنها را در مقایسه با مقوله مرجع توضیح نمی دهد. نسبت شانس من این است که بدانید غرب (شانس = 0.5) کمتر از شرق احتمال چاق شدن داشت. چه چیزی می توانم از احتمال پیش بینی شده استنباط کنم؟ یا اینطور نیست؟ آیا فقط می گویید احتمال چاقی و زندگی در غرب 0.47 است؟ خیلی ممنون :-)
برای رگرسیون لجستیک، احتمالات پیش بینی شده را چگونه تفسیر می کنید؟
70788
آیا بسته‌های یکپارچه‌سازی موجود (یا مشابه) Weka و/یا RapidMiner در Informatica PowerCenter/Developer وجود دارد؟ می‌دانم که در PowerCenter 9.x تغییر شکل‌های جاوا وجود دارد، بنابراین می‌توانم از Weka API مستقیماً به عنوان کد استفاده کنم، اما فقط نمی‌دانم که آیا کسی از پروژه‌های موجود مانند این خبر دارد تا چرخ را دوباره اختراع نکنم یا بتوانم روی آن بایستم. شانه های شخص دیگری
ادغام Weka و/یا RapidMiner در Informatica PowerCenter/Developer
34636
من تا حدودی در استفاده از رگرسیون لجستیک تازه کار هستم، و با اختلاف بین تفسیرهایم از مقادیر زیر که فکر می‌کردم یکسان هستند، کمی گیج شده‌ام: * مقادیر بتای توانمند * احتمال نتیجه پیش‌بینی شده با استفاده از مقادیر بتا. در اینجا یک نسخه ساده شده از مدلی است که من استفاده می کنم، که در آن سوءتغذیه و بیمه هر دو دوتایی هستند، و ثروت پیوسته است: Under.Nutrition ~ بیمه + ثروت مدل من (واقعی) مقدار بتای توانمند 0.8 را برای بیمه برمی گرداند. به این صورت تعبیر می شود: > احتمال سوءتغذیه برای یک فرد بیمه شده 0.8 > برابر احتمال سوءتغذیه برای یک فرد بیمه نشده است. فردی. با این حال، زمانی که من تفاوت احتمالات را برای افراد با قرار دادن مقادیر 0 و 1 در متغیر بیمه و مقدار میانگین ثروت محاسبه می‌کنم، تفاوت در سوءتغذیه فقط 0.04 است. که به صورت زیر محاسبه می شود: احتمال سوء تغذیه = exp(β0 + β1*بیمه + β2*ثروت) / (1+exp(β0 + β1*بیمه + β2*ثروت)) واقعا ممنون می شوم اگر کسی توضیح دهد که چرا این مقادیر متفاوت هستند، و چه تفسیر بهتری (به ویژه برای مقدار دوم) ممکن است باشد. * * * **ویرایش های توضیح بیشتر** همانطور که متوجه شدم، احتمال سوءتغذیه برای یک فرد بدون بیمه (که B1 مربوط به بیمه است) این است: Prob(Unins) = exp(β0 + β1*0 + β2* ثروت) / (1+exp(β0 + β1*0+ β2*ثروت)) در حالی که احتمال سوءتغذیه برای شخص بیمه شده عبارت است از: Prob(Ins)= exp(β0 + β1*1 + β2*ثروت) / (1+exp(β0 + β1*1+ β2*ثروت)) احتمال سوءتغذیه برای یک فرد بدون بیمه در مقایسه با یک فرد بیمه شده is: exp(B1) آیا راهی برای ترجمه بین این مقادیر (از نظر ریاضی) وجود دارد؟ من هنوز با این معادله کمی گیج هستم (جایی که احتمالاً باید مقدار متفاوتی در RHS داشته باشم): Prob(Ins) - Prob(Unins) != exp(B) به زبان عامیانه، سوال این است که چرا اینطور نیست بیمه کردن یک فرد، احتمال کم‌تغذیه شدن او را به همان اندازه که نسبت شانس نشان می‌دهد تغییر می‌دهد؟ در داده‌های من، Prob(Ins) - Prob(Unins) = 0.04، که در آن مقدار بتا نمایی 0.8 است (پس چرا تفاوت 0.2 نیست؟)
تفسیر پیش بینی های ساده به نسبت شانس در رگرسیون لجستیک
52103
آیا راهی برای تعیین دو عبارت رهگیری تصادفی متفاوت برای دو گروه فرعی از افراد در یک مدل ترکیبی وجود دارد؟ دلیل علاقه من این است که به نظر می رسد تنوع بین فردی یک گروه از موضوعات در مورد تکلیف من بیشتر از تنوع بین فردی گروه دیگر است. من از lmer استفاده می‌کنم و در حال حاضر فاکتور موضوع را به‌عنوان یک قطع تصادفی مشخص می‌کنم، که همه شرکت‌کنندگان را در یک تخمین واحد جمع می‌کند، اما می‌خواهم دو تخمین مجزا برای دو گروه فرعی داشته باشم. متشکرم
رهگیری تصادفی برای گروه های مختلف افراد
105634
من داده های زیر را دارم: 2 شرط - تجربی و کنترل. 20 شرکت کننده که هر کدام 3 نتیجه برای هر شرایط دارند. مانند جدول زیر: | وضعیت | شرکت کننده شماره 1 | شرکت کننده شماره 2 | شرکت کننده شماره 3 | |--------------|---------------|----------------| ----------------| | تجربی | نتیجه شماره 1 | نتیجه شماره 1 | نتیجه شماره 1 | | | نتیجه شماره 2 | نتیجه شماره 2 | نتیجه شماره 2 | | | نتیجه شماره 3 | نتیجه شماره 3 | نتیجه شماره 3 | |--------------|---------------|----------------| ----------------| | کنترل | نتیجه شماره 1 | نتیجه شماره 1 | نتیجه شماره 1 | | | نتیجه شماره 2 | نتیجه شماره 2 | نتیجه شماره 2 | | | نتیجه شماره 3 | نتیجه شماره 3 | نتیجه شماره 3 | |--------------|---------------|----------------| ----------------| من باید بین 2 شرط را به گونه ای مقایسه کنم که در نظر بگیرد داده ها در مورد شرکت کنندگان جفت شده اند (در نظر بگیرید که یک شرکت کننده در هر دو شرایط شرکت کرده است). به نظر من بهترین رویکرد آنووا با اندازه گیری های مکرر 2 عاملی است، اما می خواهم مطمئن باشم و بدانم آیا راه های دیگری برای تجزیه و تحلیل این نوع داده ها وجود دارد یا خیر. همچنین، می خواهم بدانم اگر ترتیب نتایج (1-2-3) مهم است، کدام آزمون را انتخاب کنم. من از هر ورودی قدردانی خواهم کرد! متشکرم
تست زوجی با اندازه گیری های مکرر
21935
من مجموعه داده ای با دماهای ماهانه برای 4 سال مختلف دارم و می خواهم آزمایش کنم که آیا تفاوت قابل توجهی بین سال ها وجود دارد یا خیر. همانطور که داده‌ها را برای سایت‌های مختلف جمع‌آوری می‌کردم، فکر می‌کردم که آیا امکانی برای انجام محاسبات یک‌باره وجود دارد یا باید آن را برای هر سایت تکرار کنم. من از نرم افزار آماری R استفاده می کنم. در غیر این صورت، می توانید راهی برای ترسیم این به من نشان دهید؟ داده‌های من به این شکل هستند (من مقداری از دست رفته دارم): کد: > head(MeanTemp) سال سایت ماه دما 1 1 2008 ژانویه NA 2 1 2008 فوریه NA 3 1 2008 مارس NA 4 1 2008 آوریل NA 5 1 2008 مه 16.2254 1 2008 ژوئن 18.53764 خیلی ممنون
چگونه تفاوت دما بین سال ها و سایت ها را آزمایش کنیم؟
60015
من سعی می کنم یک مدل طبقه بندی از یک مجموعه داده بزرگ (50 میلیون نمونه) با یک متغیر مستقل طبقه بندی (pred) و یک متغیر وابسته باینری (کلاس) بسازم. متغیر وابسته بسیار منحرف است - فقط 2K نمونه مثبت. چیزی که من را گیج می کند، احتمال بسیار پایین پیش بینی شده مدل رگرسیون لجستیک است. «(glm(class~pred,family=binomal))،` در مقایسه با برآورد احتمال شرطی استاندارد (prop.table(table(class,pred),2)[2,]): 1 2 3 4 5 6 ... 7.898106e-03 5.133151e-03 3.332895e-03 2.162637e-03 1.402706e-03 9.095645e-04 (glm). 5.922985e-04 (mle) ... آیا این تفاوت های مورد انتظار است؟ آیا باید از روشی غیر از رگرسیون لجستیک استفاده کنم (نتایج مشابه با locfit ناپارامتریک است)؟ آیا گزارش فقط احتمالات مشروط درست است؟
رگرسیون لجستیک در مقابل MLE احتمال شرطی
97154
من نیاز به تولید اعداد تصادفی دو جمله ای دارم: > برای مثال، اعداد تصادفی دو جمله ای را در نظر بگیرید. یک عدد تصادفی دو جمله ای > تعداد سرها در N پرتاب یک سکه با احتمال p از یک سر در > هر پرتاب منفرد است. اگر N عدد تصادفی یکنواخت را در بازه > (0،1) تولید کنید و عدد را کمتر از p بشمارید، آنگاه شمارش یک عدد تصادفی دو جمله ای > با پارامترهای N و p است. در مورد من، N من می تواند از 1*10^3 تا 1*10^10 باشد. p من حدود 1*10^(-7) است. اغلب n*p من حدود 1*10^(-3) است. یک پیاده سازی ساده برای تولید چنین اعداد تصادفی دو جمله ای از طریق حلقه ها وجود دارد: public static int getBinomial(int n, double p) { int x = 0; for(int i = 0; i < n; i++) { if(Math.random() < p) x++; } بازگشت x; } این پیاده سازی بومی بسیار کند است. من روش رد پذیرش/وارونگی [1] را که در بخش Colt (http://acs.lbl.gov/software/colt/) پیاده سازی شده است، امتحان کردم. بسیار سریع است، اما توزیع تعداد تولید شده آن تنها زمانی با پیاده سازی بومی مطابقت دارد که n*p خیلی کوچک نباشد. در مورد من وقتی n*p = 1*10^(-3)، پیاده‌سازی بومی همچنان می‌تواند عدد 1 را پس از اجراهای زیاد ایجاد کند، اما روش پذیرش/وارونگی هرگز نمی‌تواند عدد 1 را ایجاد کند (همیشه 0 را برمی‌گرداند). کسی میدونه مشکل اینجا چیه؟ یا می توانید الگوریتم تولید اعداد تصادفی دوجمله ای بهتری را پیشنهاد کنید که بتواند پرونده من را حل کند. [1] V. Kachitvichyanukul، B.W. اشمایزر (1988): تولید متغیر تصادفی دو جمله ای، ارتباطات ACM 31، 216-222.
یک الگوریتم تولید اعداد تصادفی دوجمله ای که زمانی کار می کند که n*p بسیار کوچک باشد
114440
من یک مرد اقتصاد/آمار هستم که از مقدار زیادی بهینه سازی (حداکثر احتمال، حداکثر احتمال شبیه سازی شده)، بهینه سازی محدود (برنامه نویسی ریاضی با شرایط تعادل)، برنامه نویسی پویا و غیره استفاده می کنم. به نظر من (در این مورد بحث کنید و اگر اشتباه می کنم به من نشان دهید)، R برای بهینه سازی عالی نیست زیرا تمایز خودکار یا حل کننده های عالی برای مسائل ابعاد بالاتر ندارد. برنامه‌هایی مانند AMPL (می‌تواند به هر حل‌کننده‌ای در کلاس جهانی متصل شود) یا حتی Matlab با حل‌کننده KNITRO باعث نمی‌شود شما را به طور واضح وارد یک الگوی پیچیده jacobian، hessian یا sparsity کنید، اما R (حتی IPOPTR) شما را مجبور به انجام این کار می‌کند. به این ترتیب، من R را برای بهینه‌سازی ضعیف می‌دانم. آیا پایتون بهتر است؟ آیا قابلیت تمایز خودکار را دارد؟ آیا می تواند به حل کننده های کلاس جهانی متصل شود؟ هر گونه اطلاعات در این مورد عالی خواهد بود. در غیر این صورت، می ترسم مجبور باشم کارم را در AMPL یا CPLEX انجام دهم، که نمی دانم، و یادگیری یک زبان دیگر بالاترین اولویت من نیست مگر اینکه نیاز داشته باشم.
بهینه سازی در R در مقابل پایتون، تمایز محدود، بدون محدودیت و خودکار؟
113149
من نمی‌دانستم که آیا کسی می‌تواند مرجعی (در صورت وجود چنین چیزی) برای ویژگی‌های نظری تخمین‌های نقطه‌ای بیز (EB) ارائه دهد، به این معنا که در مورد ریسک آن‌ها در شرایط منظمی خاص چه می‌توان گفت، برای موارد کلی. برای مثال، فرض کنید یک پیشین داریم که از نظر ساختاری صحیح است، اما دارای یک فراپارامتر ناشناخته است. بنابراین با استفاده از رویکرد EB، فراپارامتر را تخمین زده و آن را وصل می کنیم، در نهایت، فرض کنید، EB MMSE را برای پارامتر مورد نیاز دریافت می کنیم. آیا می توانیم بگوییم که همیشه بهتر از استفاده از حداکثر احتمال (به معنای mse) خواهد بود؟
ویژگی های نظری کلی تخمین های بیز تجربی
102940
به من گفته شده است که ما باید عوامل کنترلی را که تأثیر قابل توجهی بر متغیر وابسته نشان می‌دهند را از مدل حذف کنیم. همانطور که می دانم متغیرهای کنترلی متغیرهایی هستند که بر DV تاثیر دارند. بنابراین، ما باید آنها را در مطالعه قرار دهیم. بنابراین، من دچار سردرگمی هستم که چرا باید آنها را از مدل حذف کنیم، در صورتی که تأثیر قابل توجهی بر DV نشان دهند. در حالی که آنها از آنجایی که پتانسیل بالایی برای تأثیرگذاری بر DV دارند شامل می شوند؟
آیا متغیرهای کنترلی قابل توجه باید از تجزیه و تحلیل آماری به طور کلی و SmartPLS به طور خاص حذف شوند؟
21932
آیا کسی می داند چگونه پهنای باند را با GCV برای هسته Epanechnikov در R یا Matlab انتخاب کنم؟ خیلی ممنون
هسته Epanechnikov و GCV
60013
با عرض پوزش برای عنوان طولانی، اما مشکل من کاملا مشخص است و توضیح آن در یک عنوان دشوار است. من در حال حاضر در حال یادگیری در مورد مدل روی (تجزیه و تحلیل اثر درمان) هستم. یک مرحله اشتقاق در اسلایدهای من وجود دارد که من آن را نمی فهمم. ما نتیجه مورد انتظار را با درمان در گروه درمان محاسبه می‌کنیم (ساختگی D درمان است یا نه درمان). این به صورت \begin{align} E[Y_1|D=1] \end{align} نوشته می‌شود زیرا $Y_1=\mu_1 + U_1$ می‌تواند به صورت \begin{align} E[Y_1|D=1] بازنویسی شود = E[\mu_1+U_1|D=1]\\\ &=\mu_1+ E[U_1|D=1] \end{align} قبل از اینکه گفتیم که $D=1$ اگر $Y_1>Y_0$ به شرح زیر است: $Y_1-Y_0>0$$\mu_1+U_1-(\mu_0-U_0)>0$$(\mu_1+U_1)/\sigma-(\ mu_0-U_0)/ \sigma >0$ $Z-\epsilon>0$ بنابراین $D=1$ اگر $\epsilon<Z$ بنابراین اینطور است که \begin{align} E[Y_1|D=1] &=\mu_1 + E[U_1|\epsilon<Z] \end{align} بیشتر مشخص است که \begin{align} \begin{bmatrix } U_1 \\\ U_0 \\\ \epsilon \end{bmatrix}=N\left( \begin{bmatrix} 0 \\\ 0 \\\ 0 \end{bmatrix}، \begin{bmatrix} \sigma_1^2 & \sigma_{10} & \sigma_{1\epsilon} \\\ \sigma_{10} & \sigma_{0}^2 و \sigma_{ 0\epsilon} \\\ \sigma_{1\epsilon} & \sigma_{0\epsilon} و \sigma_{\epsilon}^2 \end{bmatrix}\right) \end{align} بنابراین نتیجه می‌شود: $P(D=1)=P(\epsilon<Z)=\Phi(Z)$ پس اکنون می‌آید سوال من، اسلایدها می گویند که \begin{align} \mu_1 - E[U_1|\epsilon<Z] =\mu_1 - \sigma_{1\epsilon} \frac{\phi(Z)}{\Phi(Z)} \end{align} و من نمی‌دانم چرا؟ من می دانم که اگر دو متغیر تصادفی از توزیع نرمال دو متغیره استاندارد پیروی کنند: $E[u_1|u_2)=\rho u_2$ پس $E[u_1|u_2>c)=E[\rho u_2|u_2>c]=\ rho E[u_2|u_2>c)=\rho\frac{\phi(c)}{1-\Phi(c)}$ بنابراین من انتظار داشتم یک علامت مثبت و نه منفی؟ همچنین چرا از کوواریانس $\sigma_{1\epsilon}$ استفاده می کنیم و از همبستگی $\rho$ استفاده نمی کنیم؟ بنابراین انتظار داشتم چیزی شبیه \begin{align} \mu_1 - E[U_1|\epsilon<Z] =\mu_1 + \rho \frac{\phi(Z)}{\Phi(Z)} \end{align } من از این واقعیت آگاه هستم که اگر برش را از بالا انجام دهم $1-\Phi(c)$ تبدیل به $\Phi(c)$ می شود.
ویژگی‌های دو متغیره استاندارد معمولی و احتمال شرطی ضمنی در مدل روی
52109
تصور کنید من در حال انجام آزمایشی هستم که در آن می‌خواهم ترکیب سلولی نمونه‌های تومور را بررسی کنم. 3 نمونه با فنوتیپ A (به عنوان مثال متاستاز) و 3 نمونه با فنوتیپ B (مثلاً متاستاز نیستند) نمونه‌های با فنوتیپ A شامل (به ترتیب) هستند. 30 درصد، 32 درصد و 33 درصد «سلول های سبز»، 28، 27 درصد و 28 درصد «سلول های آبی» و 42 درصد، 41 درصد و 39 درصد «گلبول های قرمز». نمونه های با فنوتیپ B شامل (به ترتیب) 10، 9 و 11 «سلول سبز»، 50، 49 و 47 درصد «سلول های آبی» و 40، 42 درصد و 42 درصد «گلبول های قرمز» است. چگونه می توانم بفهمم که آیا درصد متفاوتی از انواع سلول های مختلف بین انواع مختلف تومور (مانند بین فنوتیپ ها) وجود دارد؟ به طور معمول به 3 تست t نیاز دارد. با این حال، چون %s هستند، فرض می‌کنم که مفروضات یک آزمون t برآورده نمی‌شوند. آیا آزمون مشابهی برای %s وجود دارد؟
آزمون آماری درصد داده ها با تکرار
99993
من در حال مطالعه انقراض در زبان‌های آسترونیزی هستم و سعی می‌کنم بفهمم که آیا زیرمجموعه‌ای از 384 زبان به طور تصادفی با توجه به خطر انقراض از جمعیت 1249 زبانی انتخاب شده‌اند. خطر انقراض می تواند 10 مقدار متفاوت داشته باشد. اما دو مقدار مورد انتظار اول بسیار کوچک هستند (هر دو 0.40) و بیشتر مربع کای را تشکیل می دهند: مشاهده شده | 10 | 6 | 6 | 22 | 113 | 64 | 70 | 20 | 5 | 19 مورد انتظار | 0.40 | 0.40 | 5.63 | 10.86 | 59.54 | 129.54 | 90.11 | 25.74 | 12.07 | 13.68 چی مربع | 229.0| 77.9 | 0.0 | 11.4 | 48.0 | 33.1 | 4.5 | 1.3 | 4.1 | 2.1 سهم ----------- | ------------------------------------------------ ------------------------- مربع چی: 411.44 مقدار بحرانی (آلفا = 0.01): 21.67 با 9 درجه آزادی من شنیده ام که این است بهترین حالت اگر مقادیر مورد انتظار بالای 5 باقی بماند (و اگر اینطور نباشد، ممکن است تصحیح یتس را در نظر بگیرید). چه اصلاحی را پیشنهاد می کنید؟
مربع کای چند جمله ای با مقادیر مورد انتظار کوچک
113140
من می خواهم میزان مصرف مواد مغذی مردان و زنان را با هم مقایسه کنم. اما فرض ماتریس کوواریانس واریانس یکسان نقض می شود و بنابراین نمی توان از آزمون هتلینگ دو نمونه استفاده کرد. چگونه می توانم دریافت ها را مقایسه کنم؟
نقض فرض دو نمونه آزمون هتلینگ
104278
من به موضوع راهزنان bayesian نگاه کردم تا یک ابزار آزمایش ساده برای بهینه سازی عنوان ایجاد کنم. UCB1 به اندازه کافی آسان به نظر می رسید تا اینکه متوجه شدم احتمالاً مشکلی با پاداش های تاخیری در راه اندازی واقعی وجود دارد. من به هیچ وجه ریاضیدان نیستم. شاید کسی بتواند به من در جهت درست راهنمایی کند که چگونه این موضوع را مدیریت کنم؟ ممنون والنتین
راهزنان بیزی با پاداش های تاخیری
102944
ساخت مدل پیش بینی چقدر کارآمد است. با این حال، هر جرمی به سه عامل بستگی دارد: زمان، مکان مکانی و رفتار مردم. از نظر آماری، ما نمی توانیم رفتار افراد را اندازه گیری کنیم (نمی توانیم از این داده های خصوصی استفاده کنیم). یافتن نتایج خوب و دقیق با استفاده از سیستم‌های پیش‌بینی مکان مکانی/سری زمانی دشوار است. از نظر آماری، آیا استفاده از یک بعد (مکان-مکانی یا سری زمانی) برای تحلیل و پیش بینی رویدادها (مانند جنایات) معتبر است؟
مدل‌های پیش‌بینی مکان مکانی/سری زمانی
113142
من از «k-means» در هر کلاس از یک مسئله طبقه‌بندی باینری استفاده می‌کنم و نمونه‌هایی را که فاصله زیادی با مرکز ویژگی‌های من دارند (21 ویژگی و مشکل 21 بعد) را قبل از درج مجموعه داده‌ها در یک شبکه عصبی حذف می‌کنم. پس از طراحی مدل شبکه عصبی، اکنون می خواهم از این مدل برای یک مجموعه داده جدید (نمونه خارج) استفاده کنم. همانطور که می دانید ما باید از پارامترهای تشخیص پرت در مرحله هر فرآیند برای داده های نمونه استفاده کنیم (مانند عادی سازی `x-min(x)/max(x)-min(x)` که از `max(x)` و` استفاده می کند. min(x)` برای عادی سازی نمونه خارج). چه پارامترهایی از «الگوریتم k-means» را باید برای نمونه استفاده کنم و چگونه می توانم آن را در «MATLAB» انجام دهم؟ با تشکر
تشخیص پرت با استفاده از k-means در یک مسئله طبقه بندی باینری
102949
این سوال کاملا تئوری است به این معنا که من هیچ داده واقعی ندارم. فرض کنید من در حال طراحی یک مطالعه هستم که در آن N جفت (X,Y) را اندازه‌گیری می‌کنم، سپس هدف این است که یک مدل پیش‌بینی‌کننده (مثلا رگرسیون خطی) بین X و Y بسازم، یعنی دقت پیش‌بینی خوبی می‌خواهم، اما همچنین داشتن یک فاصله پیش بینی خوب خواهد بود. با توجه به منابع محدود، من دو انتخاب دارم: 1. N را افزایش دهم، اما X با دقت کمتری اندازه گیری می شود. یا 2. N را کاهش دهید اما X را با دقت بیشتری اندازه بگیرید. سوال این است که چگونه می توانم تعادل بین 2 مورد را پیدا کنم؟ می‌دانم که داده‌های واقعی ارائه نکرده‌ام، به همین دلیل است که پاسخ خاصی نمی‌خواهم. من فقط می خواهم بدانم مسیر فکری شما چیست؟ راه خوبی برای نزدیک شدن به این سوال چیست؟ و غیره.... **توضیح:** نمیدانم چرا برعکس میگم. X در نقاط بالا باید Y باشد. من Y را با استفاده از X پیش بینی می کنم. انتخاب من بین افزایش N یا اندازه گیری دقیق تر Y است. **اضافه شد:** اگر پاسخ شما هم حجم نمونه کوچک و هم موقعیت های اندازه نمونه مناسب را در نظر بگیرد خوب خواهد بود.
حجم نمونه بزرگتر یا اندازه گیری دقیق تر؟
73851
من شرایطی دارم که 18 جلسه نمونه گیری انجام داده ام. هر جلسه در یکی از دو جریان انجام می شود. در هر جریان ده نمونه آب در فواصل مساوی در پایین دست منبع DNA می‌گیرم. این نمونه ها در جریان های مختلف گرفته می شوند و زیست توده های مختلفی در منبع DNA برای هر جلسه وجود دارد. بنابراین، ده اندازه گیری تکراری در یک جلسه وجود دارد. من آن را طوری تنظیم کرده‌ام که ده اندازه‌گیری فاصله مجاز است در هر جلسه شیب‌ها و وقفه‌های تصادفی داشته باشد. متغیرهای جریان پیوسته و زیست توده به عنوان متغیر جریان مقوله ای ثابت در نظر گرفته می شوند. مدل به این شکل است: Mod1 <- lme(DNACount ~ Distance + Flow + Stream + Biomass + Distance* Flow + Distance* Stream + Flow* Stream + Distance* Biomass + Flow* Biomass, random = ~Distance | Sample Session, data = DNASig) اگر مقادیر پیش بینی شده را در جریان های مختلف در این دو رسم کنم جریان (با استفاده از داده های جدید)، یک جریان منطقی است. برای خطوط ترسیم شده، شیب ها و بریدگی های مختلفی می بینم. با این حال، به نظر می رسد جریان دیگر شیب تصادفی ندارد. این فقط خطوط موازی را ترسیم می کند. هیچ فکری در مورد اینکه چرا این است؟
آیا ساختار افکت های تصادفی در این مدل lme مشکلی دارد؟
102941
تخمین زده می شود که وب تقریباً 5 میلیارد صفحه وب داشته باشد (http://www.worldwidewebsize.com/). چگونه می‌توانید یک CDF را تخمین بزنید تا بدانید چه تعداد صفحه مورد نیاز است که مثلاً 90 درصد ترافیک را تشکیل می‌دهند؟ من سعی می کنم قانون Zipf را اعمال کنم اما مطمئن نیستم که چگونه آن را انجام دهم. البته قانون Zipf به یک پارامتر نیاز دارد. من می خواهم آن را تخمین بزنم. به عنوان نقطه شروع: مقادیر معمولی آن پارامتر در حوزه های دیگر چیست؟ چقدر سازگار هستند؟ سپس: با توجه به اینکه داده‌های خاصی در دسترس هستند (مثلا گزارش‌های درخواست‌های مجموعه‌های کوچکی از کاربران) - چگونه می‌توانیم از آن‌ها برای تخمین پارامتر Zipf مناسب استفاده کنیم؟ آیا می توانیم از داده های PageRank (که تعداد زیادی منتشر شده و با قدرت محاسباتی کافی قابل محاسبه است) استفاده کنیم؟ آیا می توانیم از PageRank زیر مجموعه ای از وب استفاده کنیم؟ شما به عنوان یک آمارگیر چگونه تلاش می کنید تا به برخی از این پاسخ ها دست یابید؟ این سوال را به طور مشخص مطرح کنید: چند درصد از صفحات وب 90 درصد از ترافیک را دریافت می کنند؟
تخمین توزیع ترافیک در تمام صفحات وب