일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- 스토어드 프로시저
- 독후감
- digital marketing
- GenAI
- RStudio
- 디지털마케팅
- 혼공S
- R
- Linux
- 오블완
- 혼자공부하는SQL
- 유럽여행
- 제주2주살이
- 책리뷰
- 영국여행
- 클러스터형인덱스
- 티스토리챌린지
- Jupyter notebook
- SQL
- Github
- PRIMARY KEY
- 제주도여행
- PRML
- 보조인덱스
- 맛집
- 스플라인
- 런던
- 에이바우트
- 제주도
- 김호연작가
- Today
- Total
목록Study/Statistics (5)
Soy Library
"If S, then N" = "S는 N에 대해 sufficient condition이다." S가 사실이라면 N은 무조건 사실일텐데, N이 사실이 아니라고 해서 S가 무조건 사실이 아니라는 보장은 못 함. = "N은 S에 대해 necessary condition이다." N의 사실여부가 S의 사실여부에 대해 보장됨. 즉, S가 사실이라면 N은 무조건 사실임. 내 연구에 적용해보자면, "Constant, linear, quadratic B-spline에서의 계수가 non-decreasing sequence라면, spline은 monotone increasing하다." → B-spline의 계수가 non-decreasing sequence 라는 것은 spline이 monotone increasing 하다는 것..
이때까지 많은 smoothing spline기법이 많이 개발되어왔지만, monotonicity(단조성)나 convexity/concavity, periodicity 등과 같은 제약조건을 젹용하는데에는 어려움이 있었다. 해당 논문에서는 이러한 제약조건을 만족하는 smoothing spline 기법을 소개한다. COBS 모형은 Xuming He 와 Peide Shi에 의해 맨 처음으로 고안되었고 그 이후 다른 연구자들에 의해 추가 연구가 진행되었다. COBS 모형은 몇몇 데이터에 대해 flexible한 옵션들을 통해 이점을 갖는다고 말한다. COBS에서 fit에 대해 smoother를 제공하는 두 가지 옵션이 있는데 이를 (1) smoothing splines (with a roughness penalty)..
통계 전공자들은 수십 개의 통계 과목을 이수하면서 그에 따른 분석방법을 배운다. 이러한 통계적 방법들이 의학연구를 비롯한 다양한 연구에서 많이 사용된다. 따라서 통계 전공자들은 연구 분석을 하기 위해 연구에 사용되는 자료의 특성을 파악하고 어떤 분석 방법이 필요가 되는지 알아야 할 것이다. 가설검정의 원리 가설검정(hypothesis testing)은 모수(parameter)에 대한 가설의 옳고 그름을 판단하는 절차이다. 이때 모수(parameter)란 실험 대상이 되는 모집단(population)에서 우리가 관심 있어하는 값으로 모집단의 특성을 나타낸다. 대표적으로 모평균, 모 분산, 모비율 등이 있다. 현실적으로 모집단의 대상 전체를 조사하기가 불가능하기 때문에 우리는 랜덤 표본을 뽑아 모집단에 대한..
Inverse Computing 우리는 $Ax = b$ 라는 선형 모형에서의 solution을 얘기할 때, 행렬 A는 non-singularity의 성질을 가지고 있어야 하며 그때의 solution은 $A^{-1}b$으로 구한다. 하지만 computing에 있어서 A의 inverse를 구하는 것은 너무 복잡하고 많은 시간이 소요된다. 예를 들자면, $n \times n$ 의 행렬 A는 computing 시 $O(n^2)$ 의 flop이 필요하다. 이때 행렬 A를 $I + uv^T$의 형태로 만들어줌으로써 계산에 필요한 flop은 $O(n)$로 줄어든다. 따라서 행렬의 structure를 잘 이용하면 computation의 속도를 빨리할 수 있다. R 프로그램에서는 solve() 함수를 이용하여 inver..
Stein's Paradox 통계학에서의 추정량의 Efficiency의 정도는 MSE를 기준으로 한다. MSE(Mean Squared Error)가 작으면 작을수록 그 추정량은 좋은 추정량이라고 할 수 있다. 보통 bias가 0인 비편향추정량으로 MLE와 UMVUE가 좋은 추정량으로 생각되는데 Stein's Paradox는 bias가 있다 하더라도 MSE가 더 작게 만들 수 있는 더 좋은 추정량을 생각해낸다. 그 추정량은 'James-Stein Estimator'라고 불린다. JS estimator의 형태는 다음과 같다. 모수의 개수 p가 3보다 크거나 같은 경우에는 JS 추정량의 Risk는 MLE나 UMVUE의 것보다 작은 것을 확인할 수 있다. JS 추정량은 각각의 component들을 origin쪽..