magmasfu3.5硬件需求
magmasfu3.5硬件需求
無桌面的系統(tǒng):RAM(**要求)256MB,RAM(推薦配置)512MB,硬盤2GB。桌面系統(tǒng):RAM(**要求)512MB,RAM(推薦配置)2GB,硬盤10GB。
Magma安裝步驟:1.安裝Exceed。
2.安裝SFU。3.安裝完SFU后需重啟電腦。4.安裝magma。5.將MAGNiTUDE下的MAGMAnode.exe**到*:\\magma-v4.4\\v4.4\\NT_INTEL\\bin\\下替換原MAGMAnode.exe文件。
6.啟動Exceed(開始-程序-HummingbirdConnectivityV。7.1.1-Exceed-Exceed)。
MAGMA——是全球**的專業(yè)鑄造模擬分析軟件公司,為全球超過1000家客戶提供鑄造生產(chǎn)、工藝解決方案,鑄型及模具設(shè)計(jì)的全面工具。
兩臺服務(wù)器手動部署大數(shù)據(jù)平臺
兩臺服務(wù)器手動部署大數(shù)據(jù)平臺 ##### 初始服務(wù)器數(shù)量 – 2臺centos7 ##### 建議配置 – 32G(RAM) – 24cpu – 10t(SATA) ### 1.環(huán)境 – 系統(tǒng)centos7 – jdk:1.8.0_171(64位) – zookeeper:3.4.8 – spark-2.1.0-bin-hadoop2.6 – kafka_2.10-0.10.2.1 – hadoop-2.7.0 – hbase-1.2.6 – elasticsearch-6.3.0 ### 2.系統(tǒng)準(zhǔn)備 對應(yīng)的安裝包文件: elasticsearch-6.3.0.tar.gz hadoop-2.7.0.tar.gz hbase-1.2.6-bin.tar.gz jdk-8u171-linux-x64.tar.gz kafka_2.10-0.10.2.1.tgz mysql-5.7.23-1.el7.x86_64.rpm-bundle.tar spark2.1.0hadoop2.6.tgz.gz zookeeper-3.4.8.tar.gz 一、 配置好hosts “` 兩臺設(shè)備的host ip1 hello1 ip2 hello2 關(guān)閉防火墻 systemctl stop firewalld systemctl disable firewalld 二、機(jī)器之間做好免密 1. 在hello1服務(wù)器中,cd /root/ 2. ssh-keygen -trsa?(全部按回車,走默認(rèn)配置) 3. cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 4. chmod 600 ~/.ssh/authorized_keys 5. scp ~/.ssh/authorized_keys root@hello2:~/.ssh/ 到此處時(shí)可以實(shí)現(xiàn)hello1機(jī)器上通過root賬戶登錄到hello2中,但從hello2中無法通過免密碼登錄到hello1服務(wù)器。 6. 在hello2服務(wù)器中,cd /root/ 7. ssh-keygen -trsa?(全部按回車,走默認(rèn)配置) 8. cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 9. scp ~/.ssh/authorized_keys root@hello1:~/.ssh/ 到此處時(shí)可以實(shí)現(xiàn)hello1機(jī)器與hello2機(jī)器之間免密碼互通 三、建立一個(gè)用戶操作elasticsearch用戶,后期所有安裝軟件放在該目錄下(當(dāng)前使用root賬戶安裝) 1.添加用戶: useradd -m -s /bin/bash es 2.為該用戶設(shè)置密碼: password es 四、安裝JDK 如果系統(tǒng)自帶openjdk,先將其卸載掉! 1.創(chuàng)建jdk安裝路徑(hello1、hello2都執(zhí)行) 執(zhí)行: mkdir /usr/java 2.解壓縮jdk到安裝目錄 執(zhí)行: tar -zxvf jdk-8u171-linux-x64.tar.gz -C /usr/java/ 3.添加環(huán)境變量 vi /etc/profile,添加以下語句 export JAVA_HOME=/usr/java/jdk1.8.0_171 export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin 執(zhí)行:source /etc/profile 4.**安裝包和數(shù)據(jù)目錄到hello2 scp?-r /usr/java/jdk1.8.0_171 hello2:/usr/java/ scp /etc/profile hello2:/etc/ 登錄到hello2上,進(jìn)入/home/es目錄 執(zhí)行: source /etc/profile 5、驗(yàn)證: 兩臺服務(wù)器上分別執(zhí)行: java -version,查看輸出的版本是否與安裝的版本一致。
五、安裝mysql 1.如果centos系統(tǒng)中自帶mariadb,先卸載mariadb。
2.解壓mysql安裝包程序 執(zhí)行:tar -xvf?mysql-5.7.23-1.el7.x86_64.rpm-bundle.tar 3.依次安裝里面rpm包組建 rpm -ivh mysql-community-common-5.7.23-1.el7.x86_64.rpm rpm -ivh mysql-community-libs-5.7.23-1.el7.x86_64.rpm rpm -ivh mysql-community-client-5.7.23-1.el7.x86_64.rpm rpm -ivh mysql-community-server-5.7.23-1.el7.x86_64.rpm rpm -ivh mysql-community-devel-5.7.23-1.el7.x86_64.rpm 4.啟動MySQL 執(zhí)行: systemctl start mysqld 5.登錄mysql服務(wù)器 這種方式安裝好后,會再my.cnf文件中自動生成一個(gè)密碼, 執(zhí)行:cat /var/log/mysqld.log | grep password, 出現(xiàn)如下記錄: 2017-09-15T01:58:11.863301Z 1 [Note] A temporary password is generated for root@localhost: m-NdrSG4ipuO 其中“m-NdrSG4ipuO”為mysql root賬戶的初始密碼。 登錄: 執(zhí)行: mysql -uroot -p 輸入密碼: m-NdrSG4ipuO,即可進(jìn)入mysql服務(wù)器。 后續(xù)可自行修改root密碼,創(chuàng)建新賬戶等操作。 六、安裝zookeeper 1.解壓zookeeper安裝包到指定目錄(/home/es) tar -zxvf zookeeper-3.4.8.tar.gz -C /home/es 2.創(chuàng)建程序軟連接 cd /home/es/ ln -s zookeeper-3.4.8 zookeeper 3.添加執(zhí)行路徑環(huán)境 vi /etc/profile 添加 export ZOOKEEPER_HOME=/home/es/zookeeper export PATH=$PATH:$ZOOKEEPER_HOME/bin 執(zhí)行 source /etc/profile 4.修改配置文件 cd /home/es/zookeeper cp conf/zoo_sample.cfg conf/zoo.cfg 在/home/data下創(chuàng)建對應(yīng)的zookeeper數(shù)據(jù)存儲目錄 mkdir /home/data/zookeeper mkdir /home/data/zookeeper/data mkdir /home/data/zookeeper/log 修改配置文件:conf/zoo.cfg,添加以下語句 dataDir=/home/data/zookeeper/data dataLogDir=/home/data/zookeeper/log server.1=hello1:2888:3888 server.2=hello2:2888:3888 5.創(chuàng)建server表示符文件 touch /home/data/zookeeper/data/myid echo echo 1>/home/data/zookeeper/data/myid 6.**安裝包和數(shù)據(jù)目錄到hello2 scp -r /home/es/zookeeper-3.4.8 es@hello2:/home/es scp -r /home/data/zookeeper es@hello2:/home/data scp?/etc/profile es@hello2:/etc 登錄到hello2上 cd /home/es ln -s zookeeper-3.4.8 zookeeper echo echo 2>/home/data/zookeeper/data/myid 執(zhí)行 source /etc/profile 7.兩臺機(jī)器上分別執(zhí)行 zkServer.sh start 8.驗(yàn)證 jps | grep QuorumPeerMain,查看是否有該進(jìn)程 zkServer.sh status,查看服務(wù)狀態(tài) 六、安裝kafka 1.解壓kafka安裝包到指定目錄(/home/es) tar -zxvf kafka_2.10-0.10.2.1.tgz -C /home/es 2.創(chuàng)建程序軟連接 cd /home/es/ ln -s kafka_2.10-0.10.2.1 kafka 3.修改配置文件 備份: cp config/server.properties config/server.properties.bak 創(chuàng)建kafka日志目錄: mkdir /home/data/kafka mkdir /home/data/kafka/kafka-logs 修改:config/server.properties,具體對應(yīng)字段如下: broker.id=0 delete.topic.enable=true num.network.threads=10 num.io.threads=32 socket.send.buffer.bytes=102400 socket.receive.buffer.bytes=102400 socket.request.max.bytes=104857600 log.dirs=/home/data/kafka/kafka-logs num.partitions=1 num.recovery.threads.per.data.dir=1 log.retention.hours=168 log.segment.bytes=1073741824 log.retention.check.interval.ms=300000 zookeeper.connect=hello1:2181,hello2:2181 zookeeper.connection.timeout.ms=6000 6.**安裝包和數(shù)據(jù)目錄到hello2 scp -r /home/es/kafka_2.10-0.10.2.1 es@hello2:/home/es scp -r /home/data/kafka es@hello2:/home/data 修改hello2中的配置 登錄到hello2上,cd /home/es/kafka,修改config/server.properties中broker.id值為2. 7.啟動kafka 在兩臺機(jī)器的/home/es/kafka中,創(chuàng)建一個(gè)日志存放目錄:mkdir start_log,執(zhí)行以下命令: nohup bin/kafka-server-start.sh config/server.properties > start_log/kafka_start_log 2>&1 & 8.驗(yàn)證運(yùn)行情況 jps | grep Kafka,查看進(jìn)程 通過kafka命令查看topic。
七、安裝hadoop 1.解壓hadoop安裝包到指定目錄(/home/es) tar -zxvf hadoop-2.7.0.tar.gz -C /home/es 2.創(chuàng)建程序軟連接 cd /home/es/ ln -s hadoop-2.7.0 hadoop 3.創(chuàng)建數(shù)據(jù)存放目錄 mkdir /home/data/hadoop mkdir /home/data/hadoop/tmp mkdir /home/data/hadoop/dfs mkdir /home/data/hadoop/dfs/data mkdir /home/data/hadoop/dfs/name 4.修改配置文件 修改/home/es/hadoop/etc/hadoop/core-site.xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://hello1:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>file:/home/data/hadoop/tmp</value> </property> <property> <name>io.file.buffer.size</name> <value>131702</value> </property> </configuration> 修改/home/es/hadoop/etc/hadoop/hdfs-site.xml <configuration> <property> <name>dfs.namenode.name.dir</name> <value>file:/home/data/hadoop/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/home/data/hadoop/dfs/data</value> </property> <property> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.namenode.secondary.http-address</name> <value>hello1:9001</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> </configuration> 修改/home/es/hadoop/etc/hadoop/mapred-site.xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>hello1:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>hello1:19888</value> </property> </configuration> 修改/home/es/hadoop/etc/hadoop/yarn-site.xml <configuration> <!– Site specific YARN configuration properties –> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>hello1:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>hello1:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>hello1:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>hello1:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>hello1:8088</value> </property> <property> <name>yarn.nodemanager.resource.memory-mb</name> <value>768</value> </property> </configuration> 配置/home/es/hadoop/etc/hadoop目錄下hadoop-env.sh、yarn-env.sh的JAVA_HOME(不設(shè)置的話,啟動不了) export JAVA_HOME=/usr/java/jdk1.8.0_171 配置/home/es/hadoop/etc/hadoop目錄下的slaves,刪除默認(rèn)的localhost,增加2個(gè)從節(jié)點(diǎn), hello1 hello2 5、將配置好的Hadoop**到各個(gè)節(jié)點(diǎn)對應(yīng)位置上,通過scp傳送 scp?-r /home/es/hadoop-2.7.0 hello2:/home/es/ scp?-r /home/data/hadoop hello2:/home/data/ 登錄到hello2上,進(jìn)入/home/es目錄 執(zhí)行: ln -s hadoop-2.7.0 hadoop 6、格式化nameNode及啟動hadoop 在主服務(wù)器啟動hadoop,從節(jié)點(diǎn)會自動啟動,進(jìn)入/home/es/hadoop目錄 初始化,輸入命令,bin/hdfs namenode -format 全部啟動**in/start-all.sh,也可以分開**in/start-dfs.sh、**in/start-yarn.sh 輸入命令,jps,可以看到相關(guān)信息 7、驗(yàn)證hadoop運(yùn)行情況 瀏覽器打開http://hello1:8088/ 瀏覽器打開http://hello1:50070/ 8、添加hadoop環(huán)境變量到/etc/profile export HADOOP_HOME=/home/es/hadoop export PATH=$PATH:$HADOOP_HOME/**in export PATH=$PATH:$HADOOP_HOME/bin export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export HADOOP_OPTS=\”-Djava.library.path=$HADOOP_HOME/lib/native\” 執(zhí)行: source /etc/profile 八、安裝Hbase 1.解壓hbase安裝包到指定目錄(/home/es) tar -zxvf hbase-1.2.6-bin.tar.gz -C /home/es 2.創(chuàng)建程序軟連接 cd /home/es/ ln -s hbase-1.2.6 hbase 3.添加hbase環(huán)境變量到/etc/profile export?HBASE_HOME=/home/es/hbase export?PATH=$HBASE_HOME/bin:$PATH 執(zhí)行:source /etc/profile 4.修改HBASE配置文件 vi /home/es/hbase/conf/hbase-env.sh 增加: export JAVA_HOME=/usr/java/jdk1.8.0_171 修改: export HBASE_MANAGES_ZK=false vi /home/es/hbase/conf/hbase-site.xml 修改類容: <configuration> <property> <name>hbase.rootdir</name> <!– hbase存放數(shù)據(jù)目錄 –> <value>hdfs://hello1:9000/hbase/hbase_db</value> <!– 端口要和Hadoop的fs.defaultFS端口一致–> </property> <property> <name>hbase.cluster.distributed</name> <!– 是否分布式部署 –> <value>true</value> </property> <property> <name>hbase.zookeeper.quorum</name> <!– list of?zookooper –> <value>hello1,hello2</value> </property> <property><!–zookooper配置、日志等的存儲位置 –> <name>hbase.zookeeper.property.dataDir</name> <value>/home/es/hbase/zookeeper</value> </property> </configuration> 配置regionservers,vi /home/es/hbase/conf/regionservers 去掉默認(rèn)的localhost,加入hello1、hello2 5、將配置好的hbase**到各個(gè)節(jié)點(diǎn)對應(yīng)位置上,通過scp傳送 scp?-r /home/es/hbase-1.2.6 hello2:/home/es/ scp /etc/profile hello2:/etc/ 登錄到hello2上,進(jìn)入/home/es目錄 執(zhí)行: ln -s hbase-1.2.6 hbase source /etc/profile 6、hbase的啟動 hello1中執(zhí)行: start-hbase.sh 7、驗(yàn)證hbase運(yùn)行情況 輸入jps命令查看進(jìn)程是否啟動成功,若 hello1上出現(xiàn)HMaster、HRegionServer、HQuormPeer,hello2上出現(xiàn)HRegionServer、HQuorumPeer,就是啟動成功了。 輸入hbase shell 命令 進(jìn)入hbase命令模式,輸入status命令,查看運(yùn)行狀態(tài)。 在瀏覽器中輸入http://hello1:16010就可以在界面上看到hbase的配置 注意事項(xiàng): 正常安裝后,創(chuàng)建普通不帶壓縮表可以正常讀寫,當(dāng)使用snappy進(jìn)行壓縮創(chuàng)建表時(shí),該表無法再regionServer中啟動! 解決方法: 1.在hbase-site.xml文件中添加一下屬性 <property> <name>hbase.regionserver.codecs</name> <value>snappy</value> </property> 2.每臺機(jī)器中將hadoop_native.zip解壓縮到hbase安裝目錄的lib下,執(zhí)行 unzip hadoop_native.zip $HBASE_HOME/lib/ 3.在$HBASE_HOME/conf/hbase-env.sh 中添加:export HBASE_LIBRARY_PATH=/home/es/hbase/lib/native 4.重啟Hbase服務(wù)即可 九、Spark安裝 1.解壓hbase安裝包到指定目錄(/home/es) tar -zxvf spark2.1.0hadoop2.6.tgz.gz -C /home/es 2.創(chuàng)建程序軟連接 cd /home/es/ ln -s spark2.1.0hadoop2.6 spark 3.修改配置文件 mv /home/es/spark/conf/spark-env.sh.template?/home/es/spark/conf/spark-env.sh vi /home/es/spark/conf/spark-env.sh 修改對應(yīng)配置: export JAVA_HOME=/usr/java/jdk1.8.0_171 export SPARK_MASTER_IP=hello1 export SPARK_MASTER_PORT=7077 export SPARK_LOCAL_IP=hello1 修改slaves文件 mv /home/es/spark/conf/slaves.template?/home/es/spark/conf/slaves vi /home/es/spark/conf/slaves 將localhost修改成: hello1 hello2 5、將配置好的hbase**到各個(gè)節(jié)點(diǎn)對應(yīng)位置上,通過scp傳送 scp?-r /home/es/spark2.1.0hadoop2.6 hello2:/home/es/ 登錄到hello2上,進(jìn)入/home/es目錄 執(zhí)行: ln -s spark2.1.0hadoop2.6 spark 在hello2中修改/home/es/spark/conf/spark-env.sh export JAVA_HOME=/usr/java/jdk1.8.0_171 export SPARK_MASTER_IP=hello1 export SPARK_MASTER_PORT=7077 export SPARK_LOCAL_IP=hello2 6、啟動spark cd /home/es/spark 執(zhí)行: **in/start-all.sh 7、檢測執(zhí)行結(jié)果 jps | grep Worker,看是否有相應(yīng)的進(jìn)程。
十、安裝elasticsearch 由于elasticsearch,用root賬戶無法啟動,故該組件用es賬戶安裝 1、切換到es賬戶: su es 2、解壓hbase安裝包到指定目錄(/home/es) tar -zxvf elasticsearch-6.3.0.tar.gz -C /home/es/ 創(chuàng)建程序軟連接 cd /home/es/ ln -s elasticsearch-6.3.0 elasticsearch 3、修改配置文件 vi /home/es/elasticsearch/config/elasticsearch.yml # 集群的名字?cluster.name: crrc-health # 節(jié)點(diǎn)名字?node.name: node-1?# 數(shù)據(jù)存儲目錄(多個(gè)路徑用逗號分隔)?path.data: /home/data1/elasticsearch/data # 日志目錄?path.logs: /home/data1/elasticsearch/logs #本機(jī)的ip地址 network.host: hello1?#設(shè)置集群中master節(jié)點(diǎn)的初始列表,可以通過這些節(jié)點(diǎn)來自動發(fā)現(xiàn)新加入集群的節(jié)點(diǎn) discovery.zen.ping.unicast.hosts: [\”hello1\”, \”hello2\”] # 設(shè)置節(jié)點(diǎn)間交互的tcp端口(集群),(默認(rèn)9300)?transport.tcp.port: 9300 # 監(jiān)聽端口(默認(rèn))?http.port: 9200 # 增加參數(shù),使head插件可以訪問es?http.cors.enabled: true http.cors.allow-origin: \”*\” 4、創(chuàng)建elasticsearch數(shù)據(jù)和存儲目錄 mkdir /home/data1/elasticsearch mkdir /home/data1/elasticsearch/data mkdir /home/data1/elasticsearch/logs 5、修改linux系統(tǒng)的默認(rèn)硬限制參數(shù) 切換至root用戶: su root vim /etc/security/limits.conf 添加: es soft nofile 65536 es hard nofile 65536 退出es登錄,重新用es賬戶登錄,使用命令:ulimit -Hn查看硬限制參數(shù)。
紅米node雙卡電信版哪一個(gè)是主卡,哪一個(gè)是副卡?
您好,首先感謝您對*百科*電信的關(guān)注和支持。根據(jù)您的描述,電信版紅米note手機(jī)的卡槽1(左邊的)是主卡,可以使用電信手機(jī)卡,另一個(gè)是副卡。
詳情請登錄網(wǎng)上營業(yè)廳天翼賣場查看。
答復(fù)僅供參考,具體請咨詢10000或登錄安徽電信網(wǎng)上營業(yè)廳ah.189.cn為準(zhǔn)。安徽電信愛家套餐火熱來襲!只要每月花169元即可享受50M光纖寬帶、10G流量、1000分鐘免費(fèi)通話、高清iTV 1部,詳情訪問安徽電信網(wǎng)上營業(yè)廳。