LoadModule ssl_module modules/mod_ssl.so LoadModule socache_shmcb_module modules/mod_socache_shmcb.so Include conf/extra/httpd-ssl.conf JkMount /* example workers.properties http://egloos.zum.com/iris2380/v/558012 apache + tomcat 환경에 ssl 적용하기 일단 인증서를 준비한다.. 직접 생성하는 방법은 구글링을 통해 찾아서 하는 걸로 하고, 난 인증서가 준비되었다는 가정하에 적는다.. 상용 인증서를 사용하게 되면 기본적인 설정방법은 가이드 egloos.zum.com https://freeprog.tistory.com/126 ap..
hdfs dfs -count -q -v hdfs://asdf/user/asdf hdfs dfs -rm -R -skipTrash hdfs://pct/user/asdf/.Trash hdfs dfs -count -q -v hdfs://asdf/user/asdf https://community.cloudera.com/t5/Support-Questions/set-fs-trash-interval-to-zero-in-order-to-avoid-files-to-be/td-p/213737 set fs.trash.interval to zero in order to avoid files to be in trash we want to set the parameter fs.trash.interval to zero as fs.t..
0 * * * * sudo systemctl restart mysql
maximum = float('inf') minimum = float('-inf') print(maximum, minimum) http://blog.daum.net/sualchi/13720745 파이썬, float 무한대 표기와 int 형 최대 최소 값 ///////////////////////////////////////////////////////////////////// 강남 대치동 코딩 학원 안내 "정보 코딩의 시작과 피지컬 융합교육" 상담문의: 010-4440-0813 창의발명코딩학원(대치점):코딩/피지컬/.. blog.daum.net https://leetcode.com/problems/coin-change/ Coin Change - LeetCode Level up your coding ski..
간단한 동전문제도 헷갈린다.. 까먹지 않기 위해 기록!! class Solution: def coinChange(self, coins: List[int], amount: int) -> int: dp = [float('inf')] * (amount + 1) dp[0] = 0 for i in range(1, amount + 1): for j in coins: if i >= j: dp[i] = min(dp[i], dp[i - j] + 1) return -1 if dp[amount] == float('inf') else dp[amount] https://leetcode.com/problems/coin-change/ Coin Change - LeetCode Level up your coding skills and..
--conf spark.driver.maxResultSize=4g https://stackoverflow.com/questions/47996396/total-size-of-serialized-results-of-16-tasks-1048-5-mb-is-bigger-than-spark-dr Total size of serialized results of 16 tasks (1048.5 MB) is bigger than spark.driver.maxResultSize (1024.0 MB) I get the following error when I add --conf spark.driver.maxResultSize=2050 to my spark-submit command. 17/12/27 18:33:19 ERRO..
show variables like '%max_connect%'; show global status like 'threads_connected'; /etc/my.cnf을 열어 "max_connections = 3000"를 추가 해주고 재시작 한다. https://jaesu.tistory.com/entry/max-connection-%ED%99%95%EC%9D%B8-%EB%B0%8F-%EB%8A%98%EC%9D%B4%EA%B8%B0 mysql 최대 접속자수 확인 및 변경하기 최대 사용자 접속수 보기 show variables like '%max_connect%'; 접속수 보기 show global status like 'threads_connected'; 최대 사용자 접속 허용수 변경 하기 /etc/my...
print((df.count(), len(df.columns))) https://jaeyung1001.tistory.com/59 [Pyspark] pyspark 함수 정리(1) csv, parquet파일 읽어오기 1 2 3 4 5 6 7 8 9 10 # CSV 파일 읽기 df = spark.read.csv("...") df.printSchema() df.show() # parquet으로 저장된 파일 읽기 df2 = spark.read.parquet("...") df2.pr.. jaeyung1001.tistory.com https://stackoverflow.com/questions/39652767/pyspark-2-0-the-size-or-shape-of-a-dataframe PySpark 2.0 The..
df.select($"name",explode($"knownLanguages")) .show(false) https://sparkbyexamples.com/spark/explode-spark-array-and-map-dataframe-column/ Spark explode array and map columns to rows — Spark by {Examples} In this article, I will explain how to explode array or list and map DataFrame columns to rows using different Spark explode functions (explode, sparkbyexamples.com
@RestController public class MyController { @GetMapping("/test/{myEnum}") public String getMyEnum(@PathVariable MyEnum myEnum) { return "Hey " + myEnum; } } public enum MyEnum { HEY, HELLO } import org.springframework.core.convert.converter.Converter; import org.springframework.stereotype.Component; @Component public class MyEnumConverter implements Converter { @Override public MyEnum convert(St..
new Date().getTime() https://stackoverflow.com/questions/12067697/convert-current-date-to-integer Convert Current date to integer I want to convert the current date to integer value. By default, it returns long. When I try to convert long to integer, and afterwards I convert the integer value to date, means it shows 1970's da... stackoverflow.com
docker container run ubuntu:latest /bin/echo 'Hello world' docker version docker system info docker system df docker pull nginx docker image ls docker container run --name webserver -d -p 80:80 nginx docker container ps docker container stats webserver docker stop webserver docker start webserver docker image pull centos:7 docker image pull -a centos docker image ls --all -a --digests --no-trunc..
./bin/spark-submit \ --conf spark.sql.shuffle.partitions=300 \ --conf spark.default.parallelism=300 https://cnpnote.tistory.com/entry/HADOOP-sparksqlshufflepartitions%EC%99%80-sparkdefaultparallelism%EC%9D%98-%EC%B0%A8%EC%9D%B4%EC%A0%90%EC%9D%80-%EB%AC%B4%EC%97%87%EC%9E%85%EB%8B%88%EA%B9%8C [HADOOP] spark.sql.shuffle.partitions와 spark.default.parallelism의 차이점은 무엇입니까? spark.sql.shuffle.partitions..
https://stackoverflow.com/questions/36912442/low-jdbc-write-speed-from-spark-to-mysql Low JDBC write speed from Spark to MySQL I need write about 1 million rows from Spark a DataFrame to MySQL but the insert is too slow. How can I improve it? Code below: df = sqlContext.createDataFrame(rdd, schema) df.write.jdbc(url='x... stackoverflow.com
- Total
- Today
- Yesterday
- 김달
- 메디파크 내과 전문의 의학박사 김영수
- 팔로워 수 세기
- 테슬라 추천
- 테슬라 리퍼럴 코드 생성
- 유투브
- 테슬라 레퍼럴 적용 확인
- 모델 Y 레퍼럴
- 개리마커스
- 클루지
- 연애학개론
- follower
- 모델y
- 어떻게 능력을 보여줄 것인가?
- COUNT
- wlw
- Kluge
- 테슬라
- 테슬라 레퍼럴
- 인스타그램
- 테슬라 크레딧 사용
- 테슬라 리퍼럴 코드 혜택
- Bot
- 책그림
- 레퍼럴
- 할인
- 테슬라 레퍼럴 코드 확인
- 테슬라 리퍼럴 코드
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |