티스토리 뷰
728x90
from pyspark.sql import SparkSession, Row
spark = SparkSession.builder.getOrCreate()
data = [Row(id=u'1', probability=0.0, thresh=10, prob_opt=0.45),
Row(id=u'2', probability=0.4444444444444444, thresh=60, prob_opt=0.45),
Row(id=u'3', probability=0.0, thresh=10, prob_opt=0.45),
Row(id=u'80000000808', probability=0.0, thresh=100, prob_opt=0.45)]
df = spark.createDataFrame(data)
df.show()
# +-----------+------------------+------+--------+
# | id| probability|thresh|prob_opt|
# +-----------+------------------+------+--------+
# | 1| 0.0| 10| 0.45|
# | 2|0.4444444444444444| 60| 0.45|
# | 3| 0.0| 10| 0.45|
# |80000000808| 0.0| 100| 0.45|
# +-----------+------------------+------+--------+
https://stackoverflow.com/questions/57559783/converting-a-list-of-rows-to-a-pyspark-dataframe
Converting a list of rows to a PySpark dataframe
I have the following lists of rows that I want to convert to a PySpark df: data= [Row(id=u'1', probability=0.0, thresh=10, prob_opt=0.45), Row(id=u'2', probability=0.4444444444444444, thresh=60,
stackoverflow.com
728x90
'공부' 카테고리의 다른 글
[Github] Creating a personal access token (0) | 2021.09.11 |
---|---|
[Java][Spark] dataframe to csv (0) | 2021.09.11 |
[Python] Split string every nth character? (0) | 2021.09.11 |
[Linux] check DNS (0) | 2021.09.11 |
[Java][Spark] add column & default (0) | 2021.09.11 |
댓글
250x250
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- 테슬라
- 인스타그램
- 테슬라 리퍼럴 코드
- 테슬라 리퍼럴 코드 생성
- 테슬라 레퍼럴 코드 확인
- Bot
- 클루지
- 테슬라 레퍼럴 적용 확인
- 모델y
- Kluge
- follower
- 김달
- 책그림
- 개리마커스
- 레퍼럴
- 어떻게 능력을 보여줄 것인가?
- 테슬라 레퍼럴
- COUNT
- 할인
- wlw
- 테슬라 리퍼럴 코드 혜택
- 유투브
- 테슬라 크레딧 사용
- 연애학개론
- 모델 Y 레퍼럴
- 테슬라 추천
- 팔로워 수 세기
- 메디파크 내과 전문의 의학박사 김영수
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
글 보관함