홈 > 부모님 > 부모님 > 소설,일반 > 대학교재
SAS Viya Workbench 기반의 SAS 머신러닝 입문 이미지

SAS Viya Workbench 기반의 SAS 머신러닝 입문
자유아카데미 | 부모님 | 2025.06.05
  • 판매가
  • 32,000원
  • S포인트
  • 960P (3% 적립)
  • 상세정보
  • 18.8x23.5 | 0.638Kg | 336p
  • ISBN
  • 9791158087142
  • 배송비
  • 2만원 이상 구매시 무료배송 (제주 5만원 이상) ?
    배송비 안내
    전집 구매시
    주문하신 상품의 전집이 있는 경우 무료배송입니다.(전집 구매 또는 전집 + 단품 구매 시)
    단품(단행본, DVD, 음반, 완구) 구매시
    2만원 이상 구매시 무료배송이며, 2만원 미만일 경우 2,000원의 배송비가 부과됩니다.(제주도는 5만원이상 무료배송)
    무료배송으로 표기된 상품
    무료배송으로 표기된 상품일 경우 구매금액과 무관하게 무료 배송입니다.(도서, 산간지역 및 제주도는 제외)
  • 출고일
  • 1~2일 안에 출고됩니다. (영업일 기준) ?
    출고일 안내
    출고일 이란
    출고일은 주문하신 상품이 밀크북 물류센터 또는 해당업체에서 포장을 완료하고 고객님의 배송지로 발송하는 날짜이며, 재고의 여유가 충분할 경우 단축될 수 있습니다.
    당일 출고 기준
    재고가 있는 상품에 한하여 평일 오후3시 이전에 결제를 완료하시면 당일에 출고됩니다.
    재고 미보유 상품
    영업일 기준 업체배송상품은 통상 2일, 당사 물류센터에서 발송되는 경우 통상 3일 이내 출고되며, 재고확보가 일찍되면 출고일자가 단축될 수 있습니다.
    배송일시
    택배사 영업일 기준으로 출고일로부터 1~2일 이내 받으실 수 있으며, 도서, 산간, 제주도의 경우 지역에 따라 좀 더 길어질 수 있습니다.
    묶음 배송 상품(부피가 작은 단품류)의 출고일
    상품페이지에 묶음배송으로 표기된 상품은 당사 물류센터에서 출고가 되며, 이 때 출고일이 가장 늦은 상품을 기준으로 함께 출고됩니다.
  • 주문수량
  • ★★★★★
  • 0/5
리뷰 0
리뷰쓰기
  • 도서 소개
  • 출판사 리뷰
  • 작가 소개
  • 목차
  • 회원 리뷰

  도서 소개

기존 SAS 사용자가 프로시저 기반으로 머신러닝을 경험할 수 있도록 안내한다. 자연스럽게 VS Code를 경험하면서 보다 보편적인 개발 환경에도 접할 수 있게 하였다. 다양한 환경에서의 활용 가능성을 고려하여, 데이터 전처리 시 기존 데이터 스텝 이용보다는 데이터 과학자들의 또 다른 언어인 SQL(Structured Query Language)을 중심으로 활용하였다.

책의 구성은 예측 모델로 가장 많이 사용하는 10대 알고리즘, 예를 들어 결정나무 기반의 앙상블 모델인 포레스트(random forest), 그래디언트 부스팅(gradient boosting), 경량 그래디언트 부스팅(light GBM)을 포함하여 중점적으로 다뤘다. 실무에서 곧바로 활용할 수 있는 툴킷(toolkit)처럼 구성하였다. 조금 더 나아가 모델 해석을 위한 설명가능 머신러닝의 핵심인 샤플리(Shapley) 값에 대하여 추가적으로 수록하였다.

  출판사 리뷰

SAS 프로시저 기반의 머신러닝은 그동안 거의 알려지지 않았었다. SAS의 머신러닝은 새로운 플랫폼인 SAS Viya 기반의 시각화 머신러닝(VDMML: Visual Data Mining and Machine Learning)과 SAS CAS(Cloud Analytics Service) 언어와 파이썬 및 R언어 기반으로 출시되었지만 일반 사용자들이 접근하기가 어려웠던 것이 사실이다.
이러한 접근성을 획기적으로 개선한 것이 SAS Viya Workbench for Learners이다. 특히 대학교 재학 중인 학생이나 교수들이 유용하게 활용할 수 있는 플랫폼이다.
SAS 사용자는 과거 통계 프로시저(PROC) 기반의 분석에 나름대로 자부심이 있었다. 그러나 급격히 인공지능 시대로 접어들면서 프로시저 기반의 인공지능 또는 머신러닝으로 자연히 이동하고자 했으나, 이에 걸맞은 환경과 프로시저가 제공되지 못했다.
머신러닝을 하고자 하는 데이터 과학자, 개발자 등의 일반적인 개발 환경은 현재 압도적으로 마이크로소프트 사가 제공하는 VS Code(Visual Studio Code)이다. SAS 사용자는 SAS Studio 또는 SAS Enterprise Guide 환경이다. 물론 전통적인 Program, Log, Output 윈도우를 갖는 환경도 다수 있다. 그러나 SVW(SAS Viya Workbench)는 시대적인 흐름에 발 맞춰 VS Code 방식의 개발 환경을 갖추고 있다.
SVW는 범용 개발 환경인 VS Code와 SAS 사용자에게 친숙한 프로시저 기반으로 무장하여 기존 SAS 사용자가 아주 쉽게 새로운 표준으로 이동할 수 있게 되었다. 물론 SVW는 파이썬 사용자도 자연스럽게 특별한 코드 변화 없이 sasviya.ml 패키지를 기존개발 환경에서 이용할 수 있다.
본서는 기존 SAS 사용자가 프로시저 기반으로 머신러닝을 경험할 수 있도록 안내한다. 자연스럽게 VS Code를 경험하면서 보다 보편적인 개발 환경에도 접할 수 있게 하였다. 다양한 환경에서의 활용 가능성을 고려하여, 데이터 전처리 시 기존 데이터 스텝 이용보다는 데이터 과학자들의 또 다른 언어인 SQL(Structured Query Language)을 중심으로 활용하였다.
책의 구성은 예측 모델로 가장 많이 사용하는 10대 알고리즘, 예를 들어 결정나무 기반의 앙상블 모델인 포레스트(random forest), 그래디언트 부스팅(gradient boosting), 경량 그래디언트 부스팅(light GBM)을 포함하여 중점적으로 다뤘다. 실무에서 곧바로 활용할 수 있는 툴킷(toolkit)처럼 구성하였다.
조금 더 나아가 모델 해석을 위한 설명가능 머신러닝의 핵심인 샤플리(Shapley) 값에 대하여 추가적으로 수록하였다.
이 책은 SAS 사용자를 주 대상으로 하기 때문에 BASE SAS, SAS MACRO, DATA Step, PROC Step에 대한 지식이 있는 것으로 가정한다. 머신러닝에 대한 기본 지식은 필요로 하지 않지만 선형 회귀(linear regression)에 대한 지식은 있는 것으로 가정한다.
아무쪼록 SAS 사용자들의 기존 경험과 코드를 살리면서 성공적으로 머신러닝 개발자로 인도하는 기본 입문서가 되기를 바란다. 목차를 세분화하여 만들었기 때문에 따로 색인을 만들지 않았다.
좋은 책을 위해 최선을 다했지만, 오류나 부족한 부분이 있을 수 있다. 이에 대한 독자 여러분의 많은 조언을 구하며, 출간 후 나올 수 있는 수정사항 등은 자유아카데미 홈페이지 자료실(www.freeaca.com)을 통해 게시될 예정이니 참고

  작가 소개

지은이 : 강봉주
1984년 서울대학교 계산통계학과에 입학하여 학사를 취득하고 동 대학원 통계학과에서 석사 및 박사 학위를 취득하였다. 1993년에 국내 SAS에서 첫 직장 생활을 하였으며 이때부터 데이터 분석 관련 컨설팅 작업을 수행하였다. 1995년에 유니컨설팅 회사를 창립해, 주로 제조 분야에서 데이터 분석 컨설팅 및 관련 통계 패키지를 개발하였다. 1997년에는 유니보스를 창립해 금융 분야 데이터 분석 컨설팅 및 CRM 관련 패키지를 개발하였으며, 2004년에 ㈜배닌을 창립해 SAS, 오픈소스 기반의 머신러닝 및 딥러닝 프로젝트를 수행하고 있다. 주요 저서로는 <파이썬으로 실무에 바로 적용하는 머신러닝>, , , <파이썬 기반의 AI를 위한 기초수학, 확률 및 통계>, <파이썬과 주피터 노트북 기반의 SAS Viya>가 있다.

  목차

1장 SAS Viya Workbench 시작하기
1.1 개요

1.2 SAS Viya Workbench 환경 구성

1.3 개발 환경
1.3.1 탐색기
1.3.2 검색 메뉴
1.3.3 소스 관리 메뉴
1.3.4 실행 및 디버그 메뉴
1.3.5 확장 앱 메뉴
1.3.6 SAS 앱

1.4 개발환경 테스트

1.5 Autoexec.sas



2장 SAS 프로시저 기반의 머신러닝
2.1 개요

2.2 프로세스

2.3 모델 평가
2.3.1 일반화 모델 성능 예시
2.3.2 편향-분산 균형

2.4 머신러닝 구조
2.4.1 기울기 하강법 예시

2.5 사용 데이터
2.5.1 주택담보대출 데이터
2.5.1.1 데이터 구성
2.5.2 캘리포니아 주택가격 데이터
2.5.2.1 데이터 구성

2.6 데이터 분할

2.7 데이터 전처리
2.7.1 전처리 예시
2.7.2 데이터 탐색
2.7.2.1 결측값
2.7.2.2 카디널리티
2.7.2.3 엔트로피
2.7.2.4 정성 변동 지수
2.7.2.5 변동 계수
2.7.2.6 비대칭도
2.7.2.7 첨도
2.7.2.8 이상값
2.7.2.9 연속형 변수 데이터 탐색 요약

2.7.3 데이터 변환
2.7.3.1 결측값 처리
2.7.3.1.1 행 결측
2.7.3.1.2 열 결측
2.7.3.1.3 결측값 대체
2.7.3.2 숫자형 데이터 변환
2.7.3.2.1 구간화
2.7.3.2.1.1 등간격 구간화
2.7.3.2.1.2 등빈도 구간화
2.7.3.2.2 정규 변환
2.7.3.2.2.1 로그 변환
2.7.3.2.2.2 표준 변환
2.7.3.3 범주형 데이터 변환
2.7.3.3.1 희귀 범주 변환
2.7.3.3.2 수준 변환
2.7.3.3.3 범주 빈도 변환
2.7.3.3.4 범주 빈도 비율 변환
2.7.3.3.5 원핫 인코딩 .
2.7.3.3.6 목표변수 평균값 변환
2.7.3.3.7 증거 가중값 변환
2.7.3.4 데이터 변환 적용 방법

2.7.4 변수 선별
2.7.4.1 상수값
2.7.4.2
2.7.4.3 누수율
2.7.4.4 변동계수
2.7.4.5 상호정보
2.7.4.6 결측률
2.7.4.7 중복 변수

2.7.5 변수 선택
2.7.5.1 지도 학습 변수 선택
2.7.5.1.1 회귀 문제
2.7.5.1.1.1 HOUSING 데이터 예
2.7.5.1.2 분류 문제
2.7.5.1.2.1 HMEQ 데이터 예
2.7.5.2 비지도 학습 변수 선택


2.8 모델 구성
2.8.1 모델 생성
2.8.1.1 지도 학습 모델
2.8.1.1.1 결정나무 모델
2.8.1.1.1.1 나무 성장
2.8.1.1.1.2 가지 치기
2.8.1.1.1.3 모델 적합도
2.8.1.1.1.4 변수 중요도
2.8.1.1.1.5 모델 저장 및 스코어링
2.8.1.1.1.5.1 코드 파일 형식
2.8.1.1.1.5.2 이진 파일 형식
2.8.1.1.1.6 모델 평가
2.8.1.1.1.6.1 기준 통계량
2.8.1.1.1.6.2 모델 평가
2.8.1.1.1.2.1 최적 절사값
2.8.1.1.1.7 필수 문장
2.8.1.1.2 랜덤 포레스트 모델
2.8.1.1.2.1 배깅
2.8.1.1.2.2 알고리즘
2.8.1.1.2.3 적용 예시
2.8.1.1.2.3.1 모델 적합
2.8.1.1.2.3.2 스코어링
2.8.1.1.2.3.2 모델 평가
2.8.1.1.2.2.3.1 최적 절사값
2.8.1.1.2.4 결측값 처리
2.8.1.1.2.5 필수 문장
2.8.1.1.3 그래디언트 부스팅 모델
2.8.1.1.3.1 성능 기준
2.8.1.1.3.2 조기중단
2.8.1.1.3.3 초모수
2.8.1.1.3.4 적용 예시
2.8.1.1.3.4.1 모델 적합
2.8.1.1.3.4.2 모델 안정성
2.8.1.1.3.4.3 스코어링
2.8.1.1.3.4.4 모델 평가
2.8.1.1.3.5 필수 문장
2.8.1.1.4 경량 그래디언트 부스팅 모델
2.8.1.1.4.1 초모수
2.8.1.1.4.2 적용 예시
2.8.1.1.4.2.1 모델 적합
2.8.1.1.4.2.2 모델 안정성 평가
2.8.1.1.4.2.3 스코어링
2.8.1.1.4.2.4 모델 평가
2.8.1.1.4.3 필수 문장
2.8.1.1.5 지지벡터 머신
2.8.1.1.5.1 수학적 이해
2.8.1.1.5.2 소프트 마진
2.8.1.1.5.3 커널 트릭
2.8.1.1.5.4 지지벡터
2.8.1.1.5.5 결정 경계선
2.8.1.1.5.6 초모수
2.8.1.1.5.7 적용 예시
2.8.1.1.5.7.1 모델 적합
2.8.1.1.5.7.2 커널
2.8.1.1.5.7.3 모델 안정성
2.8.1.1.5.7.4 스코어링
2.8.1.1.5.7.5 모델 평가
2.8.1.1.5.8 필수 문장
2.8.1.1.6 베이즈 망
2.8.1.1.6.1 변수 간 의존성
2.8.1.1.6.2 변수 선택
2.8.1.1.6.3 망 구조 학습
2.8.1.1.6.4 모수 학습
2.8.1.1.6.5 초모수
2.8.1.1.6.6 적용 예시
2.8.1.1.6.6.1 모델 적합
2.8.1.1.6.6.2 베이즈 망 구조
2.8.1.1.6.6.3 스코어링
2.8.1.1.6.6.4 모델 평가
2.8.1.1.6.7 필수 문장
2.8.1.1.7 로지스틱 회귀
2.8.1.1.7.1 모수 추정
2.8.1.1.7.2 목표변수 분포
2.8.1.1.7.3 연결함수
2.8.1.1.7.4 목표변수 분포와 연결함수 관계
2.8.1.1.7.5 변수 선택
2.8.1.1.7.6 초모수
2.8.1.1.7.7 적용 예시
2.8.1.1.7.7.1 결측값 대체
2.8.1.1.7.7.2 모델 적합
2.8.1.1.7.7.3 스코어링
2.8.1.1.7.7.4 모델 평가
2.8.1.1.7.8 필수 문장
2.8.1.1.8 다층 신경망
2.8.1.1.8.1 활성함수
2.8.1.1.8.2 모수 추정
2.8.1.1.8.3 훈련 모수
2.8.1.1.8.4 초모수
2.8.1.1.8.5 적용 예시
2.8.1.1.8.5.1 모델 적합
2.8.1.1.8.5.2 모델 안정성
2.8.1.1.8.5.3 스코어링
2.8.1.1.8.5.4 모델 평가
2.8.1.1.8.6 필수 문장
2.8.1.1.9 K 최근접 이웃
2.8.1.1.9.1 이웃
2.8.1.1.9.2 초모수
2.8.1.1.9.3 적용 예시
2.8.1.1.9.3.1 결측값 대체
2.8.1.1.9.3.2 원핫 인코딩
2.8.1.1.9.3.3 ID 변수 지정
2.8.1.1.9.3.4 ID 모델 적합
2.8.1.1.9.3.5 스코어링
2.8.1.1.9.3.6 모델 평가
2.8.1.1.9.4 필수 문장


2.9 설명 가능 머신러닝
2.9.1 SHAP 모델
2.9.1.1 모델 생성 필수 조건
2.9.1.2 샤플리 값
2.9.1.2.1 HyperSHAP
2.9.1.2.2 커널 SHAP
2.9.1.3 초모수
2.9.1.4 적용 예시
2.9.1.4.1 질의 데이터
2.9.1.4.2 샤플리 값
2.9.1.5 필수 문장

  회원리뷰

리뷰쓰기

    이 분야의 신상품