목록Programming (66)
Allen's 데이터 맛집

데이터 분석을 하기 위해 데이터 수집에 대해서 공부를 시작할 때 보았던 것이 웹 스크래핑, 그리고 웹 크롤링 입니다. 데이터 분석을 하기 위해선 데이터가 있어야 하는데, csv파일처럼 제공되는 게 아닌, 웹에 있는 데이터를 저희가 가져오려 할 때 이 기술이 필요합니다 웹 스크래핑 (web scraping) 웹 사이트 상에서 원하고 필요한 부분에 위치한 정보를 컴퓨터로 하여금 자동으로 추출하여 수집하는 기술입니다 웹 스크랩 (웹 수집이라고도 함)은 웹 사이트에서 데이터를 추출하는 프로세스입니다. 웹 스크래핑의 목적은 웹에서 공개되어 있는 데이터를 자동으로 수집하여 데이터를 추출하고 저장한 후 여러 가지 용도로 사용하기 위함입니다. 웹 크롤링 자동화 봇인 웹 크롤러가 정해진 규칙에 따라 복수 개의 웹 페이즈..
저는Jupyter Notebook을 데이터 분석을 합니다. csv 파일을 불러올 때 경로가 어떻게 되어있는지 몰랐는데요, 간단한 os모듈을 가지고 확인이 가능합니다. 현재 경로 확인 import os print(os.getcwd()) # 실행결과 # C:\Users\Vector\ os모듈의 getcwd()함수를 사용하면 현재 지정되어 있는 경로를 확인할 수 있습니다. 경로 변경 import os os.chdir("../") print(os.getcwd()) # 실행결과 # C:\Users\ ../ 의 개수마다 현재 경로에서 한 단계식 내려갑니다.