의사결정나무 예제 r

의사 결정 트리는 트리의 형태로 선택 과 결과를 나타내는 그래프입니다. 그래프의 노드는 이벤트 또는 선택 을 나타내고 그래프의 가장자리는 의사 결정 규칙 또는 조건을 나타냅니다. 주로 R을 사용하는 기계 학습 및 데이터 마이닝 응용 프로그램에 사용됩니다. 의사 결정 트리는 목표 값을 계산하기 위해 바이너리 규칙 집합을 사용하는 감독학습 예측 모델입니다. 분류(범주형 대상 변수) 또는 회귀(연속 대상 변수)에 사용됩니다. 따라서 카트(분류 및 회귀 트리)라고도 합니다. 의사 결정 트리의 일부 실제 응용 프로그램은 다음과 같습니다 : 예를 들어 : 우리가 지니를 계산하는 데 사용 된 위의 예제와 함께 작동할 수 있습니다. 예: – 위에서 사용한 예제를 참조하여 대상 변수(크리켓 경기 여부)를 기반으로 학생을 분리하려는 경우를 참조합니다. 아래 스냅샷에서 성별 및 클래스의 두 입력 변수를 사용하여 채우기를 분할합니다. 이제 Gini를 사용하여 더 균일 한 하위 노드를 생성하는 분할을 확인하고 싶습니다. 위의 예에서 위의 예제에서는 출력이 요인/범주인 경우 분류 트리(예)에 대해 설명했습니다. 트리는 트리의 각 리프의 출력이 더 이상 범주가 아니라 숫자인 회귀에도 사용할 수 있습니다.

회귀 트리라고 합니다. # 트리 pfit<- 자두 (적합, cp= 맞춤 $cptable[어느.min (fit$cptable[,"xerror]],"CP")) # 플롯 정리 된 트리 플롯 (pfit, uniform=TRUE, 기본 ="Kyphosis에 대한 가지 치기 분류 트리") 텍스트 (pfit, use.n=TRUE, 모든 =TRUE, cex=8, ptree.ps", 제목 = "Kyphosis에 대한 정리 된 분류 트리") 산업 수준 문제를 해결하기위한 기계 학습 알고리즘의 구현이 증가함에 따라 보다 복잡하고 반복적인 알고리즘에 대한 수요가 필요하게되었습니다. 의사 결정 트리 알고리즘은 회귀 및 분류 문제를 모두 해결하는 데 사용되는 알고리즘 중 하나입니다. 이제 의사 결정 트리를 만드는 방법을 알아두어, 의사 결정 트리를 구현 하 여 실제 문제를 해결 하는 짧은 데모를 실행 해 보자. 의사 결정 트리는 여러 알고리즘을 사용하여 노드를 둘 이상의 하위 노드로 분할하도록 결정합니다. 하위 노드를 만들면 결과 하위 노드의 균질성이 증가합니다. 즉, 대상 변수에 대해 노드의 순도가 증가한다고 말할 수 있습니다. 의사 결정 트리는 사용 가능한 모든 변수에서 노드를 분할한 다음 분할을 선택하여 가장 균일한 하위 노드를 만듭니다. 의사 결정 트리는 분류 및 회귀 작업을 모두 수행할 수 있는 다목적 기계 학습 알고리즘입니다. 복잡한 데이터 집합을 피팅할 수 있는 매우 강력한 알고리즘입니다.

게다가, 의사 결정 트리는 오늘날 사용할 수있는 가장 강력한 기계 학습 알고리즘 중 하나입니다 임의의 숲의 기본 구성 요소입니다. ID3 또는 반복 이분화 기 3 알고리즘은 의사 결정 트리를 빌드하는 데 사용되는 가장 효과적인 알고리즘 중 하나입니다. 엔트로피 및 정보 게인의 개념을 사용하여 지정된 데이터 집합에 대한 의사 결정 트리를 생성합니다. 결정 트리의 성능을 향상시키는 데 도움이되는 기술이 있지만 다음 기사에서 는 그 에 대해 배우게됩니다.

1st August 2019 Uncategorized