앞전 포스팅에서 spark를 설치해보았고, 잘 동작하는지 테스트하기위해

pyspark를 통해 워드카운트를 실행해보겠습니다.

 

spark가 설치되어있고,

python3버전이 설치되어있음을 가정합니다.

 

https://developer-woong.tistory.com/49

 

Apache Spark 설치

centos7 기준입니다. 호스트명이 mast01인 서버에 설치할 예정이고, 실행은 hadoop 유저, 히스토리서버 역시 mast01서버에 띄우도록 하겠습니다. mast01: master work01~03: worker hadoop이 설치되어있음을 가정합

developer-woong.tistory.com

https://developer-woong.tistory.com/35

 

centos linux python 버전 변경

python 버전 변경법입니다. centos7 기준입니다. yum install -y python3 ls /bin | grep python update-alternatives --config python update-alternatives --install /bin/python python /bin/python2.7 1 update-alternatives --install /bin/python python /

developer-woong.tistory.com

 

1. 워드카운트에 사용할 파일 HDFS 업로드

action server: mast01

user: hadoop

pwd: /opt/apps/spark-3.2.3

cmd:

 hdfs dfs -put /opt/apps/spark-3.2.3/README.md /user/spark/

 

2. pyspark shell 진입 

action server: mast01

user: hadoop

pwd: /opt/apps/spark-3.2.3

cmd:

pyspark --master yarn

 

3. 소스 작성

action server: mast01

user: hadoop

pwd: /opt/apps/spark-3.2.3

cmd:

import pyspark.sql.functions as f

spark = SparkSession.builder.appName("wordcount").getOrCreate()
textFile = spark.read.text("hdfs://NNHA/user/spark/README.md")

textFile.withColumn('word', f.explode(f.split(f.col('value'), '  ')))\
.groupBy('word')\
.count()\
.sort('count', ascending=False)\
.show()

결과확인

 

4. .py 생성 후 spark-submit으로 실행시켜보기

action server: mast01

user: hadoop

pwd: /opt/apps/spark-3.2.3

cmd:

# pyspark-shell 빠져나오기
Ctrl + D

# hdfs://NNHA/user/spark/README.md를 워드카운트하여
# hdfs://NNHA/user/spark/resultcount 경로 하위에 결과를 저장하는 스크립트
vi /opt/apps/spark-3.2.3/testwordcount.py

import pyspark
import pyspark.sql.functions as f

spark = pyspark.sql.SparkSession.builder.appName("wordcountSAVE").getOrCreate()
textFile = spark.read.text("hdfs://NNHA/user/spark/README.md")

textFile.withColumn('word', f.explode(f.split(f.col('value'), '  ')))\
.groupBy('word')\
.count()\
.sort('count', ascending=False)\
.write.format("csv").option("header", "false").mode("append").save("hdfs://NNHA/user/spark/resultcount")

 

5. spark-submit 실행

action server: mast01

user: hadoop

pwd: /opt/apps/spark-3.2.3

cmd:

spark-submit --master yarn --deploy-mode cluster /opt/apps/spark-3.2.3/testwordcount.py

 

결과확인

mast02:38088 리소스매니저 UI 확인

mast01:9870 resultcount 폴더 확인

 

반응형

centos7 기준입니다.

호스트명이 mast01인 서버에 설치할 예정이고,

실행은 hadoop 유저,

히스토리서버 역시 mast01서버에 띄우도록 하겠습니다.

 

mast01: master

work01~03: worker

 

 

hadoop이 설치되어있음을 가정합니다. 

https://developer-woong.tistory.com/36

 

hadoop 설치 (정리모음버전)

centos7 기준입니다. 6대의 서버가 준비되어있고, ntp설정, ip설정 및 호스트네임 등록, jdk 설정, zookeeper 설치가 완료됨을 가정합니다. https://developer-woong.tistory.com/37 centos linux ntp enable centos7 기준입니

developer-woong.tistory.com

 

1. Spark 압축 파일 다운로드 및 합축 해제

action server: mast01

user: root

pwd: -

cmd:

cd /opt/apps

wget https://archive.apache.org/dist/spark/spark-3.2.3/spark-3.2.3-bin-hadoop3.2.tgz

tar xvfz spark-3.2.3-bin-hadoop3.2.tgz

mv spark-3.2.3-bin-hadoop3.2/ spark-3.2.3

cd /opt/apps/spark-3.2.3/

 

2. Spark 설정파일 수정

action server: mast01

user: root

pwd: /opt/apps/spark-3.2.3

cmd:

vi conf/spark-env.sh

export JAVA_HOME=/opt/apps/jdk8
export HADOOP_HOME=/opt/apps/hadoop-3.3.5
export SPARK_HOME=/opt/apps/spark-3.3.5
export HADOOP_CONF_DIR=/opt/apps/hadoop-3.3.5/etc/hadoop
export YARN_CONF_DIR=/opt/apps/hadoop-3.3.5/etc/hadoop
# ssh 포트가 디폴트가 아니면 해당 행 추가
export SPARK_SSH_OPTS="-p 22002"
export SPARK_MASTER_WEBUI_PORT=28877
export SPARK_WORKER_WEBUI_PORT=28888
export SPARK_MASTER_URL=spark://mast01:7077
export SPARK_LOCAL_DIRS=/opt/apps/spark-3.2.3
export SPARK_WORKER_MEMORY=2g
export SPARK_EXECUTOR_MEMORY=2g
export SPARK_MASTER_IP=mast01

vi conf/spark-defaults.conf
spark.master    yarn
spark.eventLog.enabled  true
spark.eventLog.dir      hdfs://NNHA:8020/user/spark/log
spark.history.fs.logDirectory   hdfs://NNHA:8020/user/spark/log
# 로그 삭제 주기 설정
spark.history.fs.cleaner.enabled        true
spark.history.fs.cleaner.maxAge 7d
spark.history.fs.cleaner.interval       1d

# 실행권한 부여
chmod 755 conf/spark-env.sh

# workers 작성
vi conf/workers
work01
work02
work03

 

3. Spark 파일 재압축 및 work 서버 배포

action server: mast01

user: root

pwd: /opt/apps/

cmd:

tar cvfz spark.tar.gz ./spark-3.2.3/

scp -P 22002 ./spark.tar.gz root@work01:/opt/apps/
scp -P 22002 ./spark.tar.gz root@work02:/opt/apps/
scp -P 22002 ./spark.tar.gz root@work03:/opt/apps/

 

3. Spark 압축파일 해제 및 권한설정, 환경 변수 설정

action server: mast01, work01, work02, work03

user: root

pwd: /opt/apps/

cmd:

# work01~03 서버 실행
cd /opt/apps
tar xvfz spark.tar.gz

# mast01, work01~03 서버 실행
chown -R hadoop:hadoop /opt/apps/spark-3.2.3

vi /etc/profile.d/spark.sh
export SPARK_HOME=/opt/apps/spark-3.2.3
export PATH=$PATH:$SPARK_HOME/bin
export PATH=$PATH:$SPARK_HOME/sbin

source /etc/profile.d/spark.sh

su - hadoop
cd /opt/apps/spark-3.2.3

 

4. Spark log 폴더 생성

action server: mast01

user: hadoop

pwd: /opt/apps/spark-3.2.3

cmd:

hdfs dfs -mkdir /user/spark
hdfs dfs -mkdir /user/spark/log

 

5. Spark 실행

action server: mast01

user: hadoop

pwd: /opt/apps/spark-3.2.3

cmd:

# mast01서버에서 실행, master, workers
./sbin/start-master.sh
./sbin/start-workers.sh

# mast01서버에서 실행, 히스토리서버
./sbin/start-history-server.sh

결과확인

mast01:28877

mast01:18080

 

다음 포스팅에서 pyspark를 통해 워드카운트 예제를 실행해보겠습니다.

 

https://developer-woong.tistory.com/50

 

pyspark 워드 카운트 예제

앞전 포스팅에서 spark를 설치해보았고, 잘 동작하는지 테스트하기위해 pyspark를 통해 워드카운트를 실행해보겠습니다. spark가 설치되어있고, python3버전이 설치되어있음을 가정합니다. https://develo

developer-woong.tistory.com

 

반응형

nifi에서 사용할 메모리 사이즈 설정방법입니다.

 

vi ${NIFI_HOME}/conf/bootstrap.conf

# 최소

java.arg.2=-Xms512m

# 최대
java.arg.3=-Xmx2048m

 

nifi restart 후 적용됩니다!

 ${NIFI_HOME}/bin/nifi.sh restart

 

 

 

반응형

'BigData > NiFi' 카테고리의 다른 글

NiFi) NiFi Cluster 모드 주의 사항  (0) 2024.06.26
NiFi) NiFi log 디렉토리 설정  (0) 2024.02.05
Apache NiFi 설치  (0) 2023.07.25

centos7 기준입니다.

호스트명이 mast03인 서버에 NiFi - 1.12.0 standalone모드로 설치하도록 하겠습니다.

 

실행권한은 hadoop유저이며,

java 환경변수가 설정되어있음을 가정합니다.

 

https://developer-woong.tistory.com/38

 

centos linux java 환경변수설정

centos7 기준입니다. jdk8 버전 다운로드 후 /opt/apps/라는 디렉토리에 압축파일을 업로드 하였습니다. 추후 진행입니다. 1. 압축 해제 및 폴더명 변경 tar xvfz /opt/apps/[jdk8 TAR.GZ] mv /opt/apps/[압축해제된

developer-woong.tistory.com

 

1. nifi 압축파일 다운로드 및 압축해제

action server: mast03

user: root

pwd: -

cmd:

cd /opt/apps
wget https://archive.apache.org/dist/nifi/1.12.0/nifi-1.12.0-bin.tar.gz

tar xvfz nifi-1.12.0-bin.tar.gz
chown -R hadoop:hadoop /opt/apps/nifi-1.12.0

2. nifi 데이터 저장소 결로 생성 및 권한 부여

action server: mast03

user: root

pwd: -

cmd:

mkdir /data/nifi

chown -R hadoop:hadoop /data/nifi

su - hadoop

cd /opt/apps/nifi-1.12.0

 

 

3. nifi 설정파일 수정

action server: mast03

user: hadoop

pwd: /opt/apps/nifi-1.12.0

cmd:

vi conf/nifi.properties

# 엡 포트 지정
nifi.web.http.port=18080

# nifi 데이터 저장 경로 지정
nifi.database.directory=/data/nifi/database_repository
nifi.flowfile.repository.directory=/data/nifi/flowfile_repository
nifi.content.repository.directory.default=/data/nifi/content_repository
nifi.provenance.repository.directory.default=/data/nifi/provenance_repository

 

4. nifi 기동 및 상태 확인

action server: mast03

user: hadoop

pwd: /opt/apps/nifi-1.12.0

cmd:

./bin/nifi.sh start

nifi web확인

 

nifi 데이터 저장 경로 생성 확인 

 

nifi 메모리 설정법입니다.

https://developer-woong.tistory.com/48

 

Apache NiFi 메모리 설정

nifi에서 사용할 메모리 사이즈 설정방법입니다. vi ${NIFI_HOME}/conf/bootstrap.conf # 최소 java.arg.2=-Xms512m # 최대 java.arg.3=-Xmx2048m

developer-woong.tistory.com

 

반응형

'BigData > NiFi' 카테고리의 다른 글

NiFi) NiFi Cluster 모드 주의 사항  (0) 2024.06.26
NiFi) NiFi log 디렉토리 설정  (0) 2024.02.05
Apache NiFi 메모리 설정  (0) 2023.07.25

centos7 기준입니다.

maven 3.6.3을 설치하도록 하겠습니다.

 

- maven 압축 파일 다운로드 및 해제

cd /opt/apps

# 경로에 source가 아닌 binaries 경로로 지정해주시길바랍니다!
wget https://archive.apache.org/dist/maven/maven-3/3.6.3/binaries/apache-maven-3.6.3-bin.tar.gz

tar xvfz apache-maven-3.6.3-bin.tar.gz
rm -rf apache-maven-3.6.3-bin.tar.gz

mv apache-maven-3.6.3/ maven-3.6.3

- maven 환경변수 설정

vi /etc/profile.d/maven.sh

export MAVEN_HOME=/opt/apps/maven-3.6.3
export PATH=$PATH:$MAVEN_HOME/bin

source /etc/profile.d/maven.sh

- maven 확인

mvn --version
반응형

centos7 기준입니다.

maven, hive가 설치되어있음을 가정합니다.

아래 포스팅에 설치된 mast02서버의 hive를 사용할 예정입니다.

tez버전은 0.10.2를 사용합니다.

조언과 충고 감사합니다.

https://developer-woong.tistory.com/46

 

centos maven 설치

centos7 기준입니다. maven 3.6.3을 설치하도록 하겠습니다. - maven 압축 파일 다운로드 cd /opt/apps wget https://archive.apache.org/dist/maven/maven-3/3.6.3/binaries/apache-maven-3.6.3-bin.tar.gz mv apache-maven-3.6.3/ maven-3.6.3 rm -

developer-woong.tistory.com

 

 

1. apache tez git clone

action server: mast02

user: root

pwd: /opt/apps/

cmd:

# git 설치
yum install -y git

# 빌드과정에서 필요한 패키지설치
yum install -y bzip2
yum install protobuf
yum install protobuf-compiler

# 경로 이동
cd /opt/apps

# git clone
git clone https://github.com/apache/tez.git

# 경로 이동
cd tez

# git branch변경
git checkout branch-0.10.2

# 태그변경확인
git branch

# 경로 이동
cd ..

 

2. tez 폴더 권한 변경

action server: mast02

user: root

pwd: /opt/apps/

cmd:

# 빌드 시 root계정으로 빌드 될 수 없다는 에러가 나옵니다.
chown -R hadoop:hadoop ./tez

su - hadoop
cd /opt/apps/tez

 

3. pom.xml 수정

action server: mast02

user: hadoop

pwd: /opt/apps/tez

cmd:

vi pom.xml

# 디폴트값
    <guava.version>31.1-jre</guava.version>
    <hadoop.version>3.3.1</hadoop.version>
    
# 설치된 하둡버전과 구아바 버전에 맞게 변경
    <guava.version>27.0-jre</guava.version>
    <hadoop.version>3.3.5</hadoop.version>

# 아래는 아래 에러가 난다면 수정해주세요.
# bower alasql#^0.4.0   CERT_HAS_EXPIRED Request to https://registry.bower.io/packages/alasql failed: certificate has expired
vi tez-ui/pom.xml
 
<allow-root-build>--allow-root=false</allow-root-build> 이 부분을
<allow-root-build>--config.strict-ssl=false --allow-root=false</allow-root-build> 이렇게 수정해주세요.

 

4. 빌드 실행

action server: mast02

user: hadoop

pwd: /opt/apps/tez

cmd:

mvn clean package -DskipTests=true -Dmaven.javadoc.skip=true

 

트러블슈팅

https://developer-woong.tistory.com/55

 

apache tez build error

apache tez 빌드 과정에서 나온 오류 및 트러블 슈팅을 기록합니다. https://developer-woong.tistory.com/45 apache tez 빌드 (작성 중) centos7 기준입니다. maven, hive가 설치되어있음을 가정합니다. 아래 포스팅에

developer-woong.tistory.com

 

반응형

'BigData > Hive' 카테고리의 다른 글

Hive) 테이블 컬럼명 변경  (0) 2023.12.28
apache hive 엔진 tez 교체  (0) 2023.09.08
Hive server, metastore 로그  (0) 2023.09.07
apache tez build error 트러블슈팅  (0) 2023.07.26
Apache Hive 설치  (0) 2023.07.24

centos7 기준입니다.

PostgreSQL, hadoop이 설치됨을 가정합니다.

 

서버는 호스트네임기준 mast02서버에 설치할 예정이고,

PostgreSQL 역시 mast02서버에 설치됨을 가정합니다.

hive폴더는 hadoop 유저권한,

hive metaDB(PostgreSQL)는 DB명 hive, DB 유저 hive입니다.

 

PostgreSQL설치 

https://developer-woong.tistory.com/41

 

PostgreSQL 11 오프라인 설치

centos7 기준입니다. 준비 파일입니다. libicu-50.2-4.el7_7.x86_64.rpm postgresql11-libs-11.15-1PGDG.rhel7.x86_64.rpm postgresql11-11.15-1PGDG.rhel7.x86_64.rpm postgresql11-server-11.15-1PGDG.rhel7.x86_64.rpm 위 파일들을 /root경로에 업로

developer-woong.tistory.com

HADOOP 설치

https://developer-woong.tistory.com/36

 

hadoop 설치 (정리모음버전)

centos7 기준입니다. 6대의 서버가 준비되어있고, ntp설정, ip설정 및 호스트네임 등록, jdk 설정, zookeeper 설치가 완료됨을 가정합니다. https://developer-woong.tistory.com/37 centos linux ntp enable centos7 기준입니

developer-woong.tistory.com

 

1. Hive에서 사용할 PostgreSQL 유저 및 DB 생성

action server: mast02

user: root

pwd: -

cmd:

su - postgres

# 다른 포트로 설치하였습니다.
psql -p 14325
create user hive password 'hive';
create database hive owner hive;
grant all privileges on database hive to hive;
\connect hive;
\q

# root계정 전환
exit

 

2. Hive 압축파일 다운로드

action server: mast02

user: root

pwd: -

cmd:

cd /opt/apps
wget https://archive.apache.org/dist/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz

# 압축 해제 및 이름 변경
tar xvfz apache-hive-3.1.3-bin.tar.gz
mv apache-hive-3.1.3-bin hive-3.1.3

 

3. Hive 환경변수 지정 및 권한 변경

action server: mast02

user: root

pwd: -

cmd:

chown -R hadoop:hadoop /opt/apps/hive-3.1.3

vi /etc/profile.d/hive.sh

export HIVE_HOME=/opt/apps/hive-3.1.3
export PATH=$PATH:$HIVE_HOME/bin

source /etc/profile.d/hive.sh

# 계정 전환 및 경로 이동
su - hadoop
cd /opt/apps/hive-3.1.3

 

4. Hive 설정 파일 수정

action server: mast02

user: hadoop

pwd: /opt/apps/hive-3.1.3

cmd:

cp conf/hive-env.sh.template conf/hive-env.sh

# hive 실행 환경 수정
vi conf/hive-env.sh

HADOOP_HOME=/opt/apps/hadoop-3.3.5
export HIVE_AUX_JARS_PATH=/opt/apps/hive-3.1.3/lib/

# Folder containing extra libraries required for hive compilation/execution can be controlled by:
if [ "${HIVE_AUX_JARS_PATH}" != "" ]; then
 if [ -f "${HIVE_AUX_JARS_PATH}" ]; then
 export HIVE_AUX_JARS_PATH=${HIVE_AUX_JARS_PATH}
 elif [ -d "/opt/apps/hive-3.1.3/hcatalog/share/hcatalog" ]; then
 export HIVE_AUX_JARS_PATH=/opt/apps/hive-3.1.3/hcatalog/share/hcatalog/hive-hcatalog-core-3.1.3.jar
 fi
elif [ -d "/opt/apps/hive-3.1.3/hcatalog/share/hcatalog" ]; then
 export HIVE_AUX_JARS_PATH=/opt/apps/hive-3.1.3/hcatalog/share/hcatalog/hive-hcatalog-core-3.1.3.jar
fi


# hive 설정 변경
vi conf/hive-site.xml

<configuration>
        <property>
                <name>javax.jdo.option.ConnectionURL</name>
                <value>jdbc:postgresql://mast02:14325/hive</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionDriverName</name>
                <value>org.postgresql.Driver</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionUserName</name>
                <value>hive</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionPassword</name>
                <value>hive</value>
        </property>
        <property>
                <name>hive.metastore.warehouse.dir</name>
                <value>/user/hive/warehouse</value>
        </property>
        <property>
                <name>hive.server2.enable.doAs</name>
                <value>false</value>
        </property>
        <property>
                <name>hive.server2.authentication</name>
                <value>NONE</value>
        </property>
        <property>
                <name>hive.security.authorization.sqlstd.confwhitelist.append</name>
                <value>mapreduce.*|mapred.*|hadoop.*|user*|password*|hive.*</value>
        </property>
        <property>
                <name>hive.strict.managed.tables</name>
                <value>false</value>
        </property>
        <property>
                <name>hive.exec.scratchdir</name>
                <value>/tmp/hive</value>
        </property>
        <property>
                <name>hive.user.install.directory</name>
                <value>/user/</value>
        </property>
        <property>
                <name>hive.exec.parallel</name>
                <value>true</value>
        </property>
        <property>
                <name>hive.exec.parallel.thread.number</name>
                <value>8</value>
        </property>
</configuration>

cp conf/hive-log4j2.properties.template conf/hive-log4j2.properties
chmod 755 conf/hive-log4j2.properties

# hive log 디렉토리지정
vi conf/hive-log4j2.properties

property.hive.log.dir = /data/hive/log
property.hive.log.file = hive.log

# hive log 디렉토리 생성 및 권한 부여
exit
mkdir -p /data/hive/log
chown -R hadoop:hadoop /data/hive/
su - hadoop
cd /opt/apps/hive-3.1.3

 

5. jar 파일 변경 및 추가

action server: mast02

user: hadoop

pwd: /opt/apps/hive-3.1.3

cmd:

# hadoop의 구아바버전과 동일하게 설정
find ./ -name guava*.jar -> 구아바 파일 찾기
rm -rf ./lib/guava-19.0.jar -> 해당 하이브는 구아바 19버전을 사용하였습니다.
# 하둡 폴더 내의 구아바파일을 복사합니다.
cp ../hadoop-3.3.5/share/hadoop/common/lib/guava-27.0-jre.jar ./lib

# postgresql.jar파일을 업로드합니다.
cp postgresql-42.2.6.jar /opt/apps/hive-3.1.3/lib/

# 업로드 후 파일 권한들 hadoop:hadoop으로 되어있는지 확인해주세요!

 

6. Hive에서 사용할 HDFS 경로 생성

action server: mast02

user: hadoop

pwd: /opt/apps/hive-3.1.3

cmd:

hdfs dfs -mkdir /user/hive
hdfs dfs -mkdir /user/hive/warehouse

hdfs dfs -mkdir /tmp/hive

hdfs dfs -chmod g+w /user/hive
hdfs dfs -chmod g+w /user/hive/warehouse

hdfs dfs -chmod 777 /tmp/hive

 

7. Hive 초기화 및 기동

action server: mast02

user: hadoop

pwd: /opt/apps/hive-3.1.3

cmd:

./bin/schematool -initSchema -dbType postgres

cd bin

# hiveserver2 기동
nohup hive --service hiveserver2 >> /data/hive/log/hiveserver2.log 2>&1 &

# hive metastore 기동
nohup hive --service metastore >> /data/hive/log/hive-metastore.log 2>&1 &

# 기동 확인
netstat -ntlp | grep 9083
netstat -ntlp | grep 10000
netstat -ntlp | grep 10002

mast02:10002

 

8. Hive 콘솔진입 

action server: mast02

user: hadoop

pwd: /opt/apps/hive-3.1.3/bin

cmd:

# 콘솔 진입
hive

create database test;
use test;
create table first (col1 string);
select * from first;

 

다음 포스팅에 tez엔진 교체를 다루어보겠습니다!

반응형

'BigData > Hive' 카테고리의 다른 글

Hive) 테이블 컬럼명 변경  (0) 2023.12.28
apache hive 엔진 tez 교체  (0) 2023.09.08
Hive server, metastore 로그  (0) 2023.09.07
apache tez build error 트러블슈팅  (0) 2023.07.26
apache tez 빌드  (2) 2023.07.24

1. PostgreSQL 포트 설정

vi [pg_data 위치]/postgresql.conf

port = '원하는 포트'

 

 

2. PostgreSQL 접근 ip 설정

vi [pg_data위치]/pg_hba.conf

# 맨 밑 부분 
# TYPE  DATABASE        USER            ADDRESS                 METHOD

# "local" is for Unix domain socket connections only
local   all             all                                     trust
# IPv4 local connections:
host    all             all             127.0.0.1/32            trust
# 해당 행은 10.10.50으로 시작하는 ip는 허용한다는 뜻
host    all             all             10.10.50.0/24           md5
# IPv6 local connections:
host    all             all             ::1/128                 trust
# Allow replication connections from localhost, by a user with the
# replication privilege.
local   replication     all                                     trust
host    replication     all             127.0.0.1/32            trust
host    replication     all             ::1/128                 trust

 

 

 

 

 

 

 

반응형

psql: could not connect to server: No such file or directory
        Is the server running locally and accepting
        connections on Unix domain socket "/var/run/postgresql/.s.PGSQL.5432"?

해당 에러는 psql 콘솔 진입 시 설정한 포트가 디폴트포트가 아닐 경우,

그리고 psql에 -p 옵션으로 포트 지정을 해주지 않았을 경우 발생하는 에러입니다.

 

vi postgresql.conf 파일의 port부분을 참고하여

psql -p [PORT] 명령어 수행 시, 정상적으로 콘솔에 진입됩니다.

반응형

'RDB > PostgreSQL' 카테고리의 다른 글

PostgreSQL 포트, 접근 ip 설정  (0) 2023.07.24
PostgreSQL 11 오프라인 설치  (0) 2023.07.24

centos7 기준입니다.

준비 파일입니다.

 

libicu-50.2-4.el7_7.x86_64.rpm

postgresql11-libs-11.15-1PGDG.rhel7.x86_64.rpm

postgresql11-11.15-1PGDG.rhel7.x86_64.rpm

postgresql11-server-11.15-1PGDG.rhel7.x86_64.rpm

위 파일들을 /root경로에 업로드하고 작업진행하였습니다.

 

1. PostgreSQL rpm 파일 다운로드

rpm -ivh libicu-50.2-4.el7_7.x86_64.rpm
rpm -ivh postgresql11-libs-11.15-1PGDG.rhel7.x86_64.rpm
rpm -ivh postgresql11-11.15-1PGDG.rhel7.x86_64.rpm
rpm -ivh postgresql11-server-11.15-1PGDG.rhel7.x86_64.rpm

 

2. PostgresSQL설정 및 초기화

cd /usr
chown -R postgres:postgres pgsql-11

mkdir /data/postgres
chown -R postgres:postgres /data/postgres

su - postgres
/usr/pgsql-11/bin/initdb -D /data/postgres/pg_data

3. PostgreSQL 컨피그파일 수정

vi /data/postgres/pg_data/postgresql.conf

# 주석 해제 후 입력
listen_addresses = '*' 

port = [원하는포트]

vi /data/postgres/pg_data/pg_hba.conf

# TYPE  DATABASE        USER            ADDRESS                 METHOD

# "local" is for Unix domain socket connections only
local   all             all                                     trust
# IPv4 local connections:
host    all             all             127.0.0.1/32            trust
# 해당 행 추가 / 10.10.50 대역의 ip를 받겠다는 뜻
host    all             all             10.10.50.0/24           md5
# IPv6 local connections:
host    all             all             ::1/128                 trust
# Allow replication connections from localhost, by a user with the
# replication privilege.
local   replication     all                                     trust
host    replication     all             127.0.0.1/32            trust

4. PostgreSQL 기동

# 기동 /usr/pgsql-11/bin/pg_ctl -D [initDB한 pg_data 위치] -l [로그파일위치] start
/usr/pgsql-11/bin/pg_ctl -D /data/postgres/pg_data -l /data/postgres/pg_data/pgsql.log start

# postgresql.conf에서 port를 변경하지않았다면 -p옵션 제외 가능
psql -p 14325
반응형

+ Recent posts