본문 바로가기
Python databases 연결 =sql2 update, delete, create 공통 import from sqlite3 import * #pip install pysqlite3 from dbconnect import * from random import * #update for a in range(20,23): #sql index 고유값 범위선정 cur= connect.cursor() #해당 index값 모두 변경 되게 반복 시킴 sql = "update test3 set mpw='pass1234' where midx='"+str(a)+"'" #%s 사용시 sql 문법 전체를 %s로 적용해야만 정상적으로 반영 cur.execute(sql) connect.commit() 20~22번 insert 이후 update #delete cur=connect.cursor() for b in r.. 2022. 9. 22.
Python 야구리그 순위권 팀명 추출하기 from bs4 import BeautifulSoup from requests import * url="https://www.koreabaseball.com/TeamRank/TeamRank.aspx" result=get(url) result.raise_for_status() #print(result.raise_for_status()) #status코드에 문제사항 출력 None(문제없음) html = BeautifulSoup(result.text,"lxml") #lxml자동 파서 baseball = html.find("div",attrs={"id":"cphContents_cphContents_cphContents_udpRecord"}) team=baseball.find("tbody") tr=team.fin.. 2022. 9. 22.
Python 네이버 웹툰 인기 순위 10 제목 추출하기 from bs4 import BeautifulSoup from requests import * url="https://comic.naver.com/index" result=get(url) print(result.raise_for_status()) #status코드에 문제사항 출력 None(문제없음) html = BeautifulSoup(result.text,"lxml") #lxml자동 파서 cartoon = html.find("ol",attrs={"id":"realTimeRankFavorite"}) atag=cartoon.find_all("a") for aa in atag: print(aa.get_text()) 2022. 9. 22.
BeautifulSoup/ requests / LXML 모듈 크롤링을 위한 모듈3개 설치 방법 BeautifulSoup 명령 프로픔트 실행 명령 CMD cd\ cd C:\Users\tjoeun\AppData\Local\Programs\Python\Python310 (파이썬 경로) cd Scripts dir/w (생략가능) pip install beautifulsoup4 위 방식과 동일하게 pip install requests pip install LXML 를 설치하면 된다. 2022. 9. 22.
Python 배열, 튜플 #배열기호 [],{} #튜플: 셀 수 있는 수량의 순서가 나열된 형태 subject=("자바","파이썬","서블릿") print(subject[1]) a1="홍길동" a2="hong@nate.com" a3="M" a4=(a1,a2,a3) print(a4) listdata={100,200,300,200,100,600,700} print(listdata) listdata2={"홍길동","이순신","홍길동","강감찬"} print(listdata2) #[]:중복된것도 나옴 listdata3=[100,200,300,200,600,200,500] #append, insert listdata6=set([100,200,300,200,600,200,500]) #set을 적용시 []=> {}인식시 #주의사항이 필요함 l.. 2022. 9. 21.