Unity20172.0 Android平台打包

Android
SDK及Jdk百度网盘下载链接:https://pan.baidu.com/s/1dFbEmdz
密码:pt7b

大数据:Hadoop入门

Unity20172.0 Android平台打包

一:什么是大数量

  1. 哪些是大数额:

(1.)大数据是指在自然时间内不可以用健康软件对其内容举办抓取,管理和处理的多少集合,简单的说就是数据量非凡大,大到无法用常规工具进行处理,如关系型数据库,数据仓库等。那里“大”是一个怎么着量级呢?如在Alibaba每日处理数据达到20PB(即20971520GB).

2.大数目的风味:

   
(1.)体量巨大。按近期的发展趋势来看,大数目标体量已经抵达PB级甚至EB级。

(2.)大数目的数据类型各样,以非结构化数据为主,如互连网杂志,音频,视屏,图片,地理地点音讯,交易数据,社交数据等。

(3.)价值密度低。有价值的多寡仅占到总数据的一小部分。比如一段视屏中,仅有几秒的音信是有价值的。

(4.)发生和必要处理速度快。那是大数据区与价值观数码挖掘最引人注目的风味。

3.除此之外还有其余处理种类可以处理大数额。

Hadoop (开源)

Spark(开源)

Storm(开源)

MongoDB(开源)

IBM PureDate(商用)

Oracle Exadata(商用)

SAP Hana(商用)

Teradata  AsterData(商用)

EMC GreenPlum(商用)

HP Vertica(商用)

注:那里大家只介绍Hadoop。

简介表明:

二:Hadoop连串布局

  1. Hadoop来源:

Hadoop源于谷歌在2003到二〇〇四年颁发的有关GFS(谷歌 File
System),MapReduce和BigTable的三篇杂谈,创办者Doug 
Cutting。Hadoop现在是Apache基金会一级项目,“Hadoop”一个虚构的名字。由Doug 
Cutting的男女为其黄色玩具大象所命名。

  1. Hadoop的核心:

(1.)HDFS和MapReduce是Hadoop的两大主旨。通过HDFS来贯彻对分布式储存的最底层帮助,达到飞速并行读写与大容量的贮存扩张。

(2.)通过MapReduce完成对分布式任务展开处理程序帮忙,保险高速分区处理多少。

3.Hadoop子项目:

      澳门美高梅手机网站 1

 

    (1.)HDFS:分布式文件系统,整个Hadoop连串的基业。

   
(2.)MapReduce/YARN:并行编程模型。YARN是第二代的MapReduce框架,从Hadoop 
0.23.01本子后,MapReduce被重构,经常也叫做MapReduce 
V2,老MapReduce也称为 MapReduce V1。

   
(3.)Hive:建立在Hadoop上的数据仓库,提供类似SQL语音的查询艺术,查询Hadoop中的数据,

   
(4.)Pig:一个队大型数据进行剖析和评估的阳台,首要功效类似于数据库中蕴藏进度。

    (5.)HBase:全称Hadoop 
Database,Hadoop的分布式的,面向列的数据库,来源于谷歌的关于BigTable的杂谈,主要用于随机走访,实时读写的大数额。

   
(6.)ZooKeeper:是一个为分布式应用所安排的和谐服务,主要为用户提供一块,配置管理,分组和命名等服务,减轻分布式应用程序所肩负的和谐职分。

       还有其他更加多其余品类那里不做一一解释了。

先是步:Android
SDK与Jdk环境获得

三:安装Hadoop运行环境

  1. 用户创造:

(1.)成立Hadoop用户组,输入指令:

           groupadd  hadoop

(2.)创设hduser用户,输入指令:

           useradd –p hadoop hduser

(3.)设置hduser的密码,输入指令:

           passwd  hduser

           按提示输入四次密码

(4.)为hduser用户增进权限,输入指令:

           #修改权限

           chmod 777 /etc/sudoers

           #编辑sudoers

           Gedit /etc/sudoers

           #复原默许权限

           chmod  440 /etc/sudoers

           先修改sudoers 文件权限,并在文本编辑窗口中查找到行“root
ALL=(ALL)”,紧跟后边更新加行“hduser  ALL=(ALL)
ALL”,将hduser添加到sudoers。添加完结后切记还原默许权限,否则系统将不容许行使sudo命令。

(5.)设置好后重启虚拟机,输入指令:

           Sudo  reboot

           重启后切换来hduser用户登录

  1. 安装JDK

(1.)下载jdk-7u67-linux-x64.rpm,并进入下载目录。

(2.)运行安装命令:

           Sudo rpm –ivh jdk-7u67-linux-x64.rpm

       完结后翻看安装路径,输入指令:

       Rpm –qa jdk –l

       记住该路线,

(3.)配置环境变量,输入指令:

    Sudo  gedit /etc/profile

    打开profile文件在文件最下边进入如下内容

    export  JAVA_HOME=/usr/java/jdk.7.0.67

    export CLASSPATH=$ JAVA_HOME/lib:$ CLASSPATH

    export PATH=$ JAVA_HOME/bin:$PATH

    保存后关门文件,然后输入指令使环境变量生效:

    Source /etc/profile

(4.)验证JDK,输入指令:

    Java –version

    若出现不利的版本则设置成功。

  1. 布署本机SSH免密码登录:

(1.)使用ssh-keygen 生成私钥与公钥文件,输入指令:

           ssh-keygen –t rsa

      澳门美高梅手机网站 2

(2.)私钥留在本机,公钥发给其余主机(现在是localhost)。输入指令:

           ssh-copy-id localhost

(3.)使用公钥来报到输入指令:

           ssh  localhost

  1. 布局此外主机SSH免密登录

(1.)克隆四次。在VMware右边栏中选中虚拟机右击,在弹出的快捷键菜单中当选管理—克隆命令。在仿制类型时选中“创设完整克隆”,单击“下一步”,按钮直到落成。

(2.)分别启动并跻身三台虚拟机,使用ifconfig查询个主机IP地址。

(3.)修改每台主机的hostname及hosts文件。

           步骤1:修改hostname,分别在各主机中输入指令。

           Sudo gedit /etc/sysconfig/network

           步骤2:修改hosts文件:

           sudo gedit /etc/hosts

           步骤3:修改三台虚拟机的IP

                    第一台对应node1虚拟机的IP:192.168.1.130

第二台对应node2虚拟机的IP:192.168.1.131

其三台对应node3虚拟机的IP:192.168.1.132

    (4.)由于已经在node1上生成过密钥对,所有现在一旦在node1上输入指令:

           ssh-copy-id node2

           ssh-copy-id node3

       那样就可以将node1的公钥发表到node2,node3。

    (5.)测试SSH,在node1上输入指令:

       ssh node2

       #剥离登录

       exit

       ssh node3

exit

1.在篇章起初或最终的百度网盘下载链接中下载Android
SDK与Jdk

四:Hadoop完全分布式安装

  1. 1.       Hadoop有二种运行方式:

(1.)单机格局:无须配置,Hadoop被视为一个非分布式情势运行的独立Java进度

(2.)伪分布式:唯有一个节点的集群,这么些节点即是Master(主节点,主服务器)也是Slave(从节点,从服务器),可在此单节点上以区其余java进度模拟分布式中的种种节点

(3.)完全分布式:对于Hadoop,不一致的种类会有不相同的节点划分形式。

2.安装Hadoop

    (1.)获取Hadoop压缩包hadoop-2.6.0.tar.gz,下载后方可动用VMWare 
Tools通过共享文件夹,或者接纳Xftp工具传到node1。进入node1
将减小包解压到/home/hduser目录下,输入指令:

    #进入HOME目录即:“/home/hduser”

澳门美高梅手机网站,    cd ~

    tar –zxvf hadoop-2.6.0.tar.gz

    (2.)重命名hadoop输入指令:

       mv hadoop-2.6.0 hadoop

    (3.)配置Hadoop环境变量,输入指令:

           Sudo gedit /etc/profile

       将以下脚本加到profile内:

       #hadoop

       export HADOOP_HOME=/home/hduser/hadoop

       export PATH=$HADOOP_HOME/bin:$PATH

       保存关闭,最终输入指令使配置生效

       source /etc/profile

       注:node2,和node3都要安份守己以上配置进行布署。

3.配置Hadoop

    (1.)hadoop-env.sh文件用于指定JDK路径。输入指令:

       [hduser@node1 ~]$ cd ~/hadoop/etc/hadoop

       [hduser@node1 hadoop]$ gedit hadoop-env.sh

       然后增加如下内容指定jDK路径。

       export JAVA_HOME=/usr/java/jdk1.7.0_67

    (2.)打开指定JDK路径,输入指令:

       export JAVA_HOME=/usr/java/jdk1.7.0_67

    (3.)slaves:用于追加slave节点即DataNode节点。

       [hduser@node1 hadoop]$ gedit slaves

       打开并清空原内容,然后输入如下内容:

       node2

       node3

       表示node2,node3作为slave节点。

   
(4.)core-site.xml:该文件是Hadoop全局配置,打开并在<configuration>元素中追加布署属性如下:

    <configuration>

       <property>

           <name>fs.defaultFs</name>

           <value>hdfs://node1:9000</value>

       </property>

           <name>hadoop.tmp.dir</name>

           <value>file:/home/hduser/hadoop/tmp</value>

       </property>

    <configuration>

此地给出了多个常用的安顿属性,fs.defaultFS表示客户端连接HDFS时,默许路径前缀,9000是HDFS工作的端口。Hadoop.tmp.dir如不指定会保留到系统的默许临时文件目录/tmp中。

   
(5.)hdfs-site.xml:该公文是hdfs的安排。打开并在<configuration>元素中扩充安插属性。

   
(6.)mapred-site.xml:该公文是MapReduce的布局,可从沙盘文件mapred-site.xml.template中复制打开并在<configuration>元素中伸张陈设。

   
(7.)yarn-site.xml:若是在mapred-site.xml配置了利用YARN框架,那么YARN框架就利用此文件中的配置,打开并在<configuration>元素中追加陈设属性。

(8.)复制这八个指令到node2,node3。输入指令如下:

scp –r /home/hduser/hadoop/etc/hadoop/
hduser@node2:/home/hduser/hadoop/etc/

 

scp –r /home/hduser/hadoop/etc/hadoop/
hduser@node3:/home/hduser/hadoop/etc/

4.验证:

    下边验证hadoop是不是科学

    (1.)在Master主机(node1)上格式化NameNode。输入指令:

       [hduser@node1 ~]$ cd ~/hadoop

       [hduser@node1 hadoop]$ bin/hdfs namenode –format

    (2)关闭node1,node2 ,node3,系统防火墙同等对待启虚拟机。输入指令:

       service iptables stop

       sudo chkconfig iptables off

       reboot

    (3.)输入以下启动HDFS:

       [hduser@node1 ~]$ cd ~/hadoop

    (4.)启动所有

[hduser@node1 hadoop]$ sbin/start-all.sh

(5.)查看集群状态:

    [hduser@node1 hadoop]$ bin/hdfs dfsadmin –report

(6.)在浏览器中查阅hdfs运行状态,网址:http://node1:50070

(7.)停止Hadoop。输入指令:

    [hduser@node1 hadoop]$ sbin/stop-all.sh

2.下载完毕Android
SDK要求解压到目前到目录下,并指定Android
SDK与Jdk在便民的目录路径下**
(其中该路线不得在华语目录下)**

五:Hadoop相关的shell操作

(1.)在操作系统中/home/hduser/file目录下成立file1.txt,file2.txt可使用图形界面创设。

file1.txt输入内容:

    Hello World hi HADOOP

file2.txt输入内容

    Hello World hi CHIAN

(2.)启动hdfs后创立目录/input2

    [hduser@node1 hadoop]$ bin/hadoop fs –mkdir /input2

(3.)将file1.txt.file2.txt保存到hdfs中:

    [hduser@node1 hadoop]$ bin/hadoop fs –put -/file/file*.txt
/input2/

(4.)[hduser@node1 hadoop]$ bin/hadoop fs –ls /input2

 

3.例如:Android
SDK放置在
D:/InstallPath/SdkPath/android-sdk;双击Jdk运行安装程序,将Jdk放置在C:/Program
Files (x86)/Java/jdk1.8.0_151
路径中**(其中该路线不得在中文目录下)**

4.到位环境拿到

第二步:Unity配置Android
SDK与Jdk

1.打开Unity,找到Edit-Preferences-External
Tools-Android

2.鼠标左键单机SDK输入框左边Browse浏览路径,指定该路线为Android
SDK解压存储路径(其中该路线不得在国语目录下)

3.鼠标左键单机Jdk输入框左边Browse浏览路径,指定该路线为Jdk安装存储路径(其中该路线不得在粤语目录下)**

4.完成Unity配置Android
SDK与Jdk

其三步:总结机配置Jdk环境

1.鼠标右键单机桌面电脑图标-鼠标左键依次单机
属性-高级系统设置-环境变量,查找到系统变量

2.鼠标左键单机新建按钮新建四个系统变量,设置变量名和变量值

3.上列变量名和变量值依照下列多个设置,冒号左边是变量名,冒号右边是变量值,假如下列变量在列表中从不开展新建,如若有不需求新建直接改动为同一即可

(1)JAVA_HOME:Jdk存储路径

(2)PATH:在那几个原基础上加码下列一句

;%ANDROID_SDK_HOME%\platform-tools;%ANDROID_SDK_HOME%\tools;%JAVA_HOME%\bin;%JAVA_HOME%\jre\bin;

(3)CLASSPATH:变量值为下列一句

.;%JAVA_HOME%\lib\tools.jar;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\bin;

4.做到Jdk环境安排

第四步:Unity Android打包器获取

1.鼠标左键依次单机File-Build
Setting-Android

2.鼠标左键单机Open Download
Page下载Android打包器,若是已经下载打包器点击这一个对话框左下角Switch
Platform

3.鼠标左键依次单机Player
Setting-Other Settings-Identification-Package Name

4.装置Package
Name输入框的面前一个单词(前八个小字母“com”),将那么些单词改为任何字母,前面的保证不变为.Company.ProductName

5.鼠标左键单机Build运行打包程序,并指定存储路径,等待一定时间后即可在储存路径中观察一个.apk后缀名的次第

6.完成Unity
Android打包

第五步:已毕打包

Android
SDK及Jdk百度网盘下载链接:https://pan.baidu.com/s/1dFbEmdz
密码:pt7b

发表评论

电子邮件地址不会被公开。 必填项已用*标注