Headlines News :

POPULAR POST

Ubuntu Big Data

Pengenalan Big Data

'Big Data', pastinya banyak di antara kita yang masih asing dengan istilah tersebut. Namun belakangan ini istilah 'Big Data' menjadi topik pembahasan dominan di bidang industri teknologi dan informasi (TI) dunia.

Awalnya Big Data adalah sebuah sistem teknologi yang diperkenalkan untuk menanggulangi 'ledakan informasi' seiring dengan semakin bertumbuhnya ekosistem pengguna perangkat mobile dan data internet. Pertumbuhan perangkat mobile dan data internet ternyata sangat mempengaruhi perkembangan volume dan jenis data yang terus meningkat secara signifikan di dunia maya.

Berbagai jenis data, mulai data yang berupa teks, gambar atau foto, video hingga bentuk data-data lainnya membanjiri sistem komputasi. Tentunya hal ini perlu jalan keluar. Dan Big Data adalah solusi yang kerap digaungkan beberapa waktu belakangan ini.

Sejatinya hingga saat ini belum ada definisi resmi dari istilah Big Data. Akan tetapi kemunculnya memang dianggap solusi dari fakta yang menunjukkan bahwa pertumbuhan data dari waktu ke waktu telah melampaui batas kemampuan media penyimpanan maupun sistem database yang ada saat ini.

Sementara itu IBM di situs resminya mendefinisikan Big Data ke dalam tiga istilah yaitu volume , variety , dan velocity. Volume di sini berkaitan dengan ukuran media penyimpanan data yang sangat besar atau mungkin tak terbatas. Sementara variety berarti tipe atau jenis data yang dapat diakomodasi. Sedangkan velocity dapat diartikan sebagai kecepatan proses.

Dengan begitu, Big Data dapat diasumsikan sebagai sebuah media penyimpanan data yang menawarkan ruang tak terbatas, serta kemampuan untuk mengakodasi dan memproses berbagai jenis data dengan sangat cepat.

Di sektor bisnis Big Data, Google bisa dikatakan sebagai pelopor. Perusahaan yang berbasis di Mountain View, California itu di tahun 2006 sempat memperkenalkan Google Bigtable. Bigtable merupakan sistem database berskala besar dan cepat yang digunakan Google untuk mengolah berbagai jenis data dari berbagai layanan, termasuk data dari layanan mesin pencari berbasis internet milik mereka.

Setelah Google, jejaring sosial milik Mar Zuckerberg, Facebook, pun menerapkan sistem database sejenis untuk menangani melonjaknya pengguna layanan mereka. Dengan teknologi Big Data, Facebook tak pernah kesulitan untuk menangani peredaran data yang melonjak drastis dalam enam tahun terakhir yang berasal dari 1 miliar pengguna jejaring sosial mereka.


Instalasi Hadoop 2.6 di Ubuntu 14.04

Dalam bagian ini, kita akan mencoba menginstal satu-simpul Hadoop cluster yang didukung oleh Hadoop Distributed File System pada Ubuntu.

Langkah pertama 

Instalasi Java

Hadoop framework di tulis dalam bahasa programing java


k@laptop:~$ cd ~

# Update the source list
k@laptop:~$ sudo apt-get update

# The OpenJDK project is the default version of Java 
# that is provided from a supported Ubuntu repository.
k@laptop:~$ sudo apt-get install default-jdk

k@laptop:~$ java -version
java version "1.7.0_65"
OpenJDK Runtime Environment (IcedTea 2.5.3) (7u71-2.5.3-0ubuntu0.14.04.1)
OpenJDK 64-Bit Server VM (build 24.65-b04, mixed mode) 
 
Langkah kedua
Menambahkan dedicated Hadoop user

k@laptop:~$ sudo addgroup hadoop
Adding group `hadoop' (GID 1002) ...
Done.

k@laptop:~$ sudo adduser --ingroup hadoop hduser
Adding user `hduser' ...
Adding new user `hduser' (1001) with group `hadoop' ...
Creating home directory `/home/hduser' ...
Copying files from `/etc/skel' ...
Enter new UNIX password: 
Retype new UNIX password: 
passwd: password updated successfully
Changing the user information for hduser
Enter the new value, or press ENTER for the default
 Full Name []: 
 Room Number []: 
 Work Phone []: 
 Home Phone []: 
 Other []: 
Is the information correct? [Y/n] Y 
 
 
Langkah ketiga

Instalasi SSH
ssh memiliki dua komponen utama:

 1. ssh   : Perintah yang kita gunakan untuk terhubung ke mesin remote - klien.
 2. sshd : The daemon yang berjalan di server dan memungkinkan klien untuk terhubung ke server.


Ssh yang pra-diaktifkan pada Linux, tetapi untuk memulai daemon sshd, kita perlu menginstal ssh pertama. Gunakan perintah ini untuk melakukannya:

k@laptop:~$ sudo apt-get install ssh 
 
Ini akan menginstal ssh pada mesin kita. Jika kita mendapatkan sesuatu yang mirip dengan berikut ini, kita dapat berpikir itu adalah setup dengan benar:

k@laptop:~$ which ssh
/usr/bin/ssh

k@laptop:~$ which sshd
/usr/sbin/sshd


Langkah keempat

Membuat dan Konfigurasi Sertifikat SSH

Hadoop membutuhkan akses SSH untuk mengelola node-nya, yaitu mesin remote ditambah mesin lokal kita. Untuk pengaturan single-node Hadoop kita, maka kita perlu mengkonfigurasi akses SSH ke localhost.

Jadi, kita perlu memiliki SSH dan berjalan pada mesin kita dan dikonfigurasi untuk memungkinkan SSH otentikasi kunci publik.

Hadoop menggunakan SSH (untuk mengakses node nya) yang biasanya akan meminta user untuk memasukkan password. Namun, persyaratan ini dapat dihilangkan dengan menciptakan dan menyiapkan sertifikat SSH menggunakan perintah berikut. Jika diminta untuk nama file biarkan kosong dan tekan tombol enter untuk melanjutkan.

k@laptop:~$ su hduser
Password: 
k@laptop:~$ ssh-keygen -t rsa -P ""
Generating public/private rsa key pair.
Enter file in which to save the key (/home/hduser/.ssh/id_rsa): 
Created directory '/home/hduser/.ssh'.
Your identification has been saved in /home/hduser/.ssh/id_rsa.
Your public key has been saved in /home/hduser/.ssh/id_rsa.pub.
The key fingerprint is:
50:6b:f3:fc:0f:32:bf:30:79:c2:41:71:26:cc:7d:e3 hduser@laptop
The key's randomart image is:
+--[ RSA 2048]----+
|        .oo.o    |
|       . .o=. o  |
|      . + .  o . |
|       o =    E  |
|        S +      |
|         . +     |
|          O +    |
|           O o   |
|            o..  |
+-----------------+


hduser@laptop:/home/k$ cat $HOME/.ssh/id_rsa.pub >> $HOME/.ssh/authorized_keys

Perintah kedua menambahkan kunci baru dibuat untuk daftar kunci yang berwenang sehingga Hadoop dapat menggunakan ssh tanpa disuruh untuk memasukan password.

Kita bisa memeriksa apakah ssh bekerja :

hduser@laptop:/home/k$ ssh localhost
The authenticity of host 'localhost (127.0.0.1)' can't be established.
ECDSA key fingerprint is e1:8b:a0:a5:75:ef:f4:b4:5e:a9:ed:be:64:be:5c:2f.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'localhost' (ECDSA) to the list of known hosts.
Welcome to Ubuntu 14.04.1 LTS (GNU/Linux 3.13.0-40-generic x86_64)
... 
 
Langkah kelima

Menginstal Hadoop 

hduser@laptop:~$ wget http://mirrors.sonic.net/apache/hadoop/common/hadoop-2.6.0/hadoop-2.6.0.tar.gz 

hduser@laptop:~$ tar xvzf hadoop-2.6.0.tar.gz 
 
 
Kami ingin memindahkan instalasi Hadoop ke direktori /usr/local/Hadoop menggunakan perintah berikut:


hduser@laptop:~/hadoop-2.6.0$ su k
Password: 

k@laptop:/home/hduser$ sudo adduser hduser sudo
[sudo] password for k: 
Adding user `hduser' to group `sudo' ...
Adding user hduser to group sudo
Done. 
 

k@laptop:/home/hduser$ sudo su hduser
 
hduser@laptop:~/hadoop-2.6.0$ sudo mv * /usr/local/hadoop 
hduser@laptop:~/hadoop-2.6.0$ sudo chown -R hduser:hadoop /usr/local/hadoop 
 
Langkah keenam

Pengaturan Konfigurasi File



File-file berikut akan harus diubah untuk menyelesaikan pengaturan Hadoop:
  

  1. ~/.bashrc
  2. /usr/local/hadoop/etc/hadoop/hadoop-env.sh
  3. /usr/local/hadoop/etc/hadoop/core-site.xml
  4. /usr/local/hadoop/etc/hadoop/mapred-site.xml.template
  5. /usr/local/hadoop/etc/hadoop/hdfs-site.xml
1. ~/.bashrc:

Sebelum mengedit file .bashrc di direktori home kita, kita harus menemukan direktori mana Java telah dipasang untuk mengatur variabel lingkungan JAVA_HOME menggunakan perintah berikut:

hduser@laptop update-alternatives --config java
There is only one alternative in link group java (providing /usr/bin/java): /usr/lib/jvm/java-7-openjdk-amd64/jre/bin/java
Nothing to configure.

Sekarang kita dapat menambahkan berikut ke akhir ~ / .bashrc:

hduser@laptop:~$ vi ~/.bashrc

#HADOOP VARIABLES START
export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
export HADOOP_INSTALL=/usr/local/hadoop
export PATH=$PATH:$HADOOP_INSTALL/bin
export PATH=$PATH:$HADOOP_INSTALL/sbin
export HADOOP_MAPRED_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_HOME=$HADOOP_INSTALL
export HADOOP_HDFS_HOME=$HADOOP_INSTALL
export YARN_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_INSTALL/lib"
#HADOOP VARIABLES END

hduser@laptop:~$ source ~/.bashrc

catatan bahwa JAVA_HOME harus ditetapkan sebagai direktori sebelum           '... /bin/':

hduser@ubuntu-VirtualBox:~$ javac -version
javac 1.7.0_75

hduser@ubuntu-VirtualBox:~$ which javac
/usr/bin/javac

hduser@ubuntu-VirtualBox:~$ readlink -f /usr/bin/javac
/usr/lib/jvm/java-7-openjdk-amd64/bin/javac

2. /usr/local/hadoop/etc/hadoop/hadoop-env.sh

Kita perlu mengatur JAVA_HOME dengan memodifikasi berkas hadoop-env.sh.

hduser@laptop:~$ vi /usr/local/hadoop/etc/hadoop/hadoop-env.sh

export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64

Menambahkan pernyataan di atas dalam file hadoop-env.sh memastikan bahwa nilai variabel JAVA_HOME akan tersedia untuk Hadoop kapan pun ia mulai naik.

3. /usr/local/hadoop/etc/hadoop/core-site.xml:
  
File /usr/local/hadoop/etc/hadoop/core-site.xml mengandung sifat konfigurasi yang menggunakan Hadoop ketika memulai.
File ini dapat digunakan untuk menimpa pengaturan default yang Hadoop dimulai dengan.


hduser@laptop:~$ sudo mkdir -p /app/hadoop/tmp
hduser@laptop:~$ sudo chown hduser:hadoop /app/hadoop/tmp
 
Buka file dan masukkan berikut di antara <configuration> </ configuration> tag:

hduser@laptop:~$ vi /usr/local/hadoop/etc/hadoop/core-site.xml


 
  hadoop.tmp.dir
  /app/hadoop/tmp
  A base for other temporary directories.
 

 
  fs.default.name
  hdfs://localhost:54310
  The name of the default file system.  A URI whose
  scheme and authority determine the FileSystem implementation.  The
  uri's scheme determines the config property (fs.SCHEME.impl) naming
  the FileSystem implementation class.  The uri's authority is used to
  determine the host, port, etc. for a filesystem.
 

 
4. /usr/local/hadoop/etc/hadoop/mapred-site.xml



Secara default, / usr / local / Hadoop / etc / Hadoop / folder berisi
/usr/local/hadoop/etc/hadoop/mapred-site.xml.template
File yang harus diganti / disalin dengan nama mapred-site.xml:

hduser@laptop:~$ cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml

File mapred-site.xml digunakan untuk menentukan kerangka kerja yang digunakan untuk MapReduce.
Kita perlu untuk memasukkan konten berikut di antara <configuration> </ configuration> tag:

 


 
  mapred.job.tracker
  localhost:54311
  The host and port that the MapReduce job tracker runs
  at.  If "local", then jobs are run in-process as a single map
  and reduce task.
  
 



5. /usr/local/hadoop/etc/hadoop/hdfs-site.xml


File /usr/local/hadoop/etc/hadoop/hdfs-site.xml perlu dikonfigurasi untuk setiap host di cluster yang sedang digunakan.
Hal ini digunakan untuk menentukan direktori yang akan digunakan sebagai namenode dan datanode pada host itu.


Sebelum mengedit file ini, kita perlu membuat dua direktori yang akan berisi namenode dan datanode untuk instalasi Hadoop ini.
Hal ini dapat dilakukan dengan menggunakan perintah berikut:


hduser@laptop:~$ sudo mkdir -p /usr/local/hadoop_store/hdfs/namenode
hduser@laptop:~$ sudo mkdir -p /usr/local/hadoop_store/hdfs/datanode
hduser@laptop:~$ sudo chown -R hduser:hadoop /usr/local/hadoop_store
 
Buka file dan masukkan konten berikut di antara <configuration> </ configuration> tag:

hduser@laptop:~$ vi /usr/local/hadoop/etc/hadoop/hdfs-site.xml


 
  dfs.replication
  1
  Default block replication.
  The actual number of replications can be specified when the file is created.
  The default is used if replication is not specified in create time.
  
 
 
   dfs.namenode.name.dir
   file:/usr/local/hadoop_store/hdfs/namenode
 
 
   dfs.datanode.data.dir
   file:/usr/local/hadoop_store/hdfs/datanode
 

Langkah ketujuh
Format Filesystem Hadoop Baru

Sekarang, sistem file Hadoop perlu diformat sehingga kita dapat mulai menggunakannya. Perintah Format harus dikeluarkan dengan izin menulis karena menciptakan direktori saat
bawah / usr / folder / hadoop_store / HDFS / namenode lokal:

hduser@laptop:~$ hadoop namenode -format
DEPRECATED: Use of this script to execute hdfs command is deprecated.
Instead use the hdfs command for it.

15/04/18 14:43:03 INFO namenode.NameNode: STARTUP_MSG: 
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG:   host = laptop/192.168.1.1
STARTUP_MSG:   args = [-format]
STARTUP_MSG:   version = 2.6.0
STARTUP_MSG:   classpath = /usr/local/hadoop/etc/hadoop
...
STARTUP_MSG:   java = 1.7.0_65
************************************************************/
15/04/18 14:43:03 INFO namenode.NameNode: registered UNIX signal handlers for [TERM, HUP, INT]
15/04/18 14:43:03 INFO namenode.NameNode: createNameNode [-format]
15/04/18 14:43:07 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Formatting using clusterid: CID-e2f515ac-33da-45bc-8466-5b1100a2bf7f
15/04/18 14:43:09 INFO namenode.FSNamesystem: No KeyProvider found.
15/04/18 14:43:09 INFO namenode.FSNamesystem: fsLock is fair:true
15/04/18 14:43:10 INFO blockmanagement.DatanodeManager: dfs.block.invalidate.limit=1000
15/04/18 14:43:10 INFO blockmanagement.DatanodeManager: dfs.namenode.datanode.registration.ip-hostname-check=true
15/04/18 14:43:10 INFO blockmanagement.BlockManager: dfs.namenode.startup.delay.block.deletion.sec is set to 000:00:00:00.000
15/04/18 14:43:10 INFO blockmanagement.BlockManager: The block deletion will start around 2015 Apr 18 14:43:10
15/04/18 14:43:10 INFO util.GSet: Computing capacity for map BlocksMap
15/04/18 14:43:10 INFO util.GSet: VM type       = 64-bit
15/04/18 14:43:10 INFO util.GSet: 2.0% max memory 889 MB = 17.8 MB
15/04/18 14:43:10 INFO util.GSet: capacity      = 2^21 = 2097152 entries
15/04/18 14:43:10 INFO blockmanagement.BlockManager: dfs.block.access.token.enable=false
15/04/18 14:43:10 INFO blockmanagement.BlockManager: defaultReplication         = 1
15/04/18 14:43:10 INFO blockmanagement.BlockManager: maxReplication             = 512
15/04/18 14:43:10 INFO blockmanagement.BlockManager: minReplication             = 1
15/04/18 14:43:10 INFO blockmanagement.BlockManager: maxReplicationStreams      = 2
15/04/18 14:43:10 INFO blockmanagement.BlockManager: shouldCheckForEnoughRacks  = false
15/04/18 14:43:10 INFO blockmanagement.BlockManager: replicationRecheckInterval = 3000
15/04/18 14:43:10 INFO blockmanagement.BlockManager: encryptDataTransfer        = false
15/04/18 14:43:10 INFO blockmanagement.BlockManager: maxNumBlocksToLog          = 1000
15/04/18 14:43:10 INFO namenode.FSNamesystem: fsOwner             = hduser (auth:SIMPLE)
15/04/18 14:43:10 INFO namenode.FSNamesystem: supergroup          = supergroup
15/04/18 14:43:10 INFO namenode.FSNamesystem: isPermissionEnabled = true
15/04/18 14:43:10 INFO namenode.FSNamesystem: HA Enabled: false
15/04/18 14:43:10 INFO namenode.FSNamesystem: Append Enabled: true
15/04/18 14:43:11 INFO util.GSet: Computing capacity for map INodeMap
15/04/18 14:43:11 INFO util.GSet: VM type       = 64-bit
15/04/18 14:43:11 INFO util.GSet: 1.0% max memory 889 MB = 8.9 MB
15/04/18 14:43:11 INFO util.GSet: capacity      = 2^20 = 1048576 entries
15/04/18 14:43:11 INFO namenode.NameNode: Caching file names occuring more than 10 times
15/04/18 14:43:11 INFO util.GSet: Computing capacity for map cachedBlocks
15/04/18 14:43:11 INFO util.GSet: VM type       = 64-bit
15/04/18 14:43:11 INFO util.GSet: 0.25% max memory 889 MB = 2.2 MB
15/04/18 14:43:11 INFO util.GSet: capacity      = 2^18 = 262144 entries
15/04/18 14:43:11 INFO namenode.FSNamesystem: dfs.namenode.safemode.threshold-pct = 0.9990000128746033
15/04/18 14:43:11 INFO namenode.FSNamesystem: dfs.namenode.safemode.min.datanodes = 0
15/04/18 14:43:11 INFO namenode.FSNamesystem: dfs.namenode.safemode.extension     = 30000
15/04/18 14:43:11 INFO namenode.FSNamesystem: Retry cache on namenode is enabled
15/04/18 14:43:11 INFO namenode.FSNamesystem: Retry cache will use 0.03 of total heap and retry cache entry expiry time is 600000 millis
15/04/18 14:43:11 INFO util.GSet: Computing capacity for map NameNodeRetryCache
15/04/18 14:43:11 INFO util.GSet: VM type       = 64-bit
15/04/18 14:43:11 INFO util.GSet: 0.029999999329447746% max memory 889 MB = 273.1 KB
15/04/18 14:43:11 INFO util.GSet: capacity      = 2^15 = 32768 entries
15/04/18 14:43:11 INFO namenode.NNConf: ACLs enabled? false
15/04/18 14:43:11 INFO namenode.NNConf: XAttrs enabled? true
15/04/18 14:43:11 INFO namenode.NNConf: Maximum size of an xattr: 16384
15/04/18 14:43:12 INFO namenode.FSImage: Allocated new BlockPoolId: BP-130729900-192.168.1.1-1429393391595
15/04/18 14:43:12 INFO common.Storage: Storage directory /usr/local/hadoop_store/hdfs/namenode has been successfully formatted.
15/04/18 14:43:12 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0
15/04/18 14:43:12 INFO util.ExitUtil: Exiting with status 0
15/04/18 14:43:12 INFO namenode.NameNode: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at laptop/192.168.1.1
************************************************************/

Perhatikan bahwa perintah-format Hadoop namenode harus dieksekusi sekali sebelum kita mulai menggunakan Hadoop.
Jika perintah ini dijalankan lagi setelah Hadoop telah digunakan, itu akan menghancurkan semua data pada sistem file Hadoop.


Langkah kedelapan

Memulai Hadoop

Sekarang saatnya untuk memulai yang baru diinstal node cluster tunggal.
Kita bisa menggunakan start-all.sh atau
(start-dfs.sh dan start-yarn.sh)

k@laptop:~$ cd /usr/local/hadoop/sbin

k@laptop:/usr/local/hadoop/sbin$ ls
distribute-exclude.sh    start-all.cmd        stop-balancer.sh
hadoop-daemon.sh         start-all.sh         stop-dfs.cmd
hadoop-daemons.sh        start-balancer.sh    stop-dfs.sh
hdfs-config.cmd          start-dfs.cmd        stop-secure-dns.sh
hdfs-config.sh           start-dfs.sh         stop-yarn.cmd
httpfs.sh                start-secure-dns.sh  stop-yarn.sh
kms.sh                   start-yarn.cmd       yarn-daemon.sh
mr-jobhistory-daemon.sh  start-yarn.sh        yarn-daemons.sh
refresh-namenodes.sh     stop-all.cmd
slaves.sh                stop-all.sh

k@laptop:/usr/local/hadoop/sbin$ sudo su hduser

hduser@laptop:/usr/local/hadoop/sbin$ start-all.sh
hduser@laptop:~$ start-all.sh
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
15/04/18 16:43:13 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Starting namenodes on [localhost]
localhost: starting namenode, logging to /usr/local/hadoop/logs/hadoop-hduser-namenode-laptop.out
localhost: starting datanode, logging to /usr/local/hadoop/logs/hadoop-hduser-datanode-laptop.out
Starting secondary namenodes [0.0.0.0]
0.0.0.0: starting secondarynamenode, logging to /usr/local/hadoop/logs/hadoop-hduser-secondarynamenode-laptop.out
15/04/18 16:43:58 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
starting yarn daemons
starting resourcemanager, logging to /usr/local/hadoop/logs/yarn-hduser-resourcemanager-laptop.out
localhost: starting nodemanager, logging to /usr/local/hadoop/logs/yarn-hduser-nodemanager-laptop.out

 Kita bisa memeriksa apakah itu benar-benar berdiri dan berjalan:
 
hduser@laptop:/usr/local/hadoop/sbin$ jps
9026 NodeManager
7348 NameNode
9766 Jps
8887 ResourceManager
7507 DataNode

Output berarti bahwa kita sekarang memiliki contoh fungsional Hadoop berjalan pada VPS kami (Virtual private server).

Cara lain untuk memeriksa adalah menggunakan netstat:


hduser@laptop:~$ netstat -plten | grep java
(Not all processes could be identified, non-owned process info
 will not be shown, you would have to be root to see it all.)
tcp        0      0 0.0.0.0:50020           0.0.0.0:*               LISTEN      1001       1843372     10605/java      
tcp        0      0 127.0.0.1:54310         0.0.0.0:*               LISTEN      1001       1841277     10447/java      
tcp        0      0 0.0.0.0:50090           0.0.0.0:*               LISTEN      1001       1841130     10895/java      
tcp        0      0 0.0.0.0:50070           0.0.0.0:*               LISTEN      1001       1840196     10447/java      
tcp        0      0 0.0.0.0:50010           0.0.0.0:*               LISTEN      1001       1841320     10605/java      
tcp        0      0 0.0.0.0:50075           0.0.0.0:*               LISTEN      1001       1841646     10605/java      
tcp6       0      0 :::8040                 :::*                    LISTEN      1001       1845543     11383/java      
tcp6       0      0 :::8042                 :::*                    LISTEN      1001       1845551     11383/java      
tcp6       0      0 :::8088                 :::*                    LISTEN      1001       1842110     11252/java      
tcp6       0      0 :::49630                :::*                    LISTEN      1001       1845534     11383/java      
tcp6       0      0 :::8030                 :::*                    LISTEN      1001       1842036     11252/java      
tcp6       0      0 :::8031                 :::*                    LISTEN      1001       1842005     11252/java      
tcp6       0      0 :::8032                 :::*                    LISTEN      1001       1842100     11252/java      
tcp6       0      0 :::8033                 :::*                    LISTEN      1001       1842162     11252/java      


Langkah kesembilan

Menghentikan Hadoop

$ pwd
/usr/local/hadoop/sbin

$ ls
distribute-exclude.sh  httpfs.sh                start-all.sh         start-yarn.cmd    stop-dfs.cmd        yarn-daemon.sh
hadoop-daemon.sh       mr-jobhistory-daemon.sh  start-balancer.sh    start-yarn.sh     stop-dfs.sh         yarn-daemons.sh
hadoop-daemons.sh      refresh-namenodes.sh     start-dfs.cmd        stop-all.cmd      stop-secure-dns.sh
hdfs-config.cmd        slaves.sh                start-dfs.sh         stop-all.sh       stop-yarn.cmd
hdfs-config.sh         start-all.cmd            start-secure-dns.sh  stop-balancer.sh  stop-yarn.sh



Kami menjalankan stop-all.sh atau (stop-dfs.sh dan stop-yarn.sh) untuk menghentikan semua daemon yang berjalan pada komputer kita:

hduser@laptop:/usr/local/hadoop/sbin$ pwd
/usr/local/hadoop/sbin
hduser@laptop:/usr/local/hadoop/sbin$ ls
distribute-exclude.sh  httpfs.sh                start-all.cmd      start-secure-dns.sh  stop-balancer.sh    stop-yarn.sh
hadoop-daemon.sh       kms.sh                   start-all.sh       start-yarn.cmd       stop-dfs.cmd        yarn-daemon.sh
hadoop-daemons.sh      mr-jobhistory-daemon.sh  start-balancer.sh  start-yarn.sh        stop-dfs.sh         yarn-daemons.sh
hdfs-config.cmd        refresh-namenodes.sh     start-dfs.cmd      stop-all.cmd         stop-secure-dns.sh
hdfs-config.sh         slaves.sh                start-dfs.sh       stop-all.sh          stop-yarn.cmd
hduser@laptop:/usr/local/hadoop/sbin$ 
hduser@laptop:/usr/local/hadoop/sbin$ stop-all.sh
This script is Deprecated. Instead use stop-dfs.sh and stop-yarn.sh
15/04/18 15:46:31 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Stopping namenodes on [localhost]
localhost: stopping namenode
localhost: stopping datanode
Stopping secondary namenodes [0.0.0.0]
0.0.0.0: no secondarynamenode to stop
15/04/18 15:46:59 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
stopping yarn daemons
stopping resourcemanager
localhost: stopping nodemanager
no proxyserver to stop




Tampilan Web Hadoop
Mari kita mulai dengan Hadoop lagi dan melihat Web UI:

hduser@laptop:/usr/local/hadoop/sbin$ start-all.sh  

http: // localhost: 50070 / - web UI dari daemon NameNode 

 


Replikasi Database MySQL

Topologi Replikasi Database MySQL, Master to Master dan Master to Slave

Topologi Replikasi Database MySQL, Master to Master dan Master to Slave

Pengenalan Replikasi Database MySQL

Replikasi Database MySQL adalah melakukan sinkronisasi database agar saling entry atau isi database. Selain itu replikasi database bertujuan untuk membuat backup secara realtime apabila Server database MySQL utama (Master) offline / down maka kita tetap bisa mendapatkan data saat entry terakhir dilakukan oleh user di database Backup (Slave). Replikasi Database MySQL ada dua macam:
Master to Master MySQL Replication
Web 1 dan Web 2 bertindak kedua – dua nya sebagai master. Apabila ada Update database di Web 1 maka secara realtime akan di salin ke Web2. Apabila ada update database di Web2 maka secara realtime akan di salin ke Web 1.
Master to Slave MySQL Replication
Web 1 bertindak sebagai database utama (Master), apabila ada update di database Web 1 maka secara realtime di salin ke Web 3. Web 3 hanya bersifat sebagai backup (Slave). Web 3 selalu standby aktif menunggu salinan data dari Web 1.

Konfigurasi Database MySQL Web 1

Konfigurasi my.cnf Web1
root@web1:~# vim /etc/mysql/my.cnf
[mysqld]
# Instead of skip-networking the default is now to listen only on
# localhost which is more compatible and is not less secure.
server-id = 1
log_bin = /var/log/mysql/mysql-bin.log
#Nama Database yg akan kita replikasi
binlog_do_db = kurusetra
binlog_ignore_db = mysql
binlog_ignore_db = test
#bind-address = 127.0.0.1
Restart MySQL Web1
root@web1:~# service mysql restart
Replicator Database Web1
root@web1:~# mysql
mysql> create database kurusetra;
mysql> create user ‘replicator’@'%’ identified by ‘password’;
mysql> grant replication slave on *.* to ‘replicator’@'%’;
mysql> \q

Konfigurasi Database MySQL Web2

Konfigurasi my.cnf Web2
root@web2:~# vim /etc/mysql/my.cnf
[mysqld]
#
# Instead of skip-networking the default is now to listen only on
# localhost which is more compatible and is not less secure.
server-id = 2
log_bin = /var/log/mysql/mysql-bin.log
binlog_do_db = kurusetra
binlog_ignore_db = mysql
binlog_ignore_db = test
#bind-address = 127.0.0.1
Restart MySQL Web2
root@web2:~# service mysql restart
Replicator Database Web2
root@web2:~# mysql
mysql> create database kurusetra;
mysql> create user ‘replicator’@'%’ identified by ‘password’;
mysql> grant replication slave on *.* to ‘replicator’@'%’;
mysql> \q

Pengujian Replikasi Database MySQL

Konfigurasi Replikasi Web1 ke Web2

## POSISI DI WEB1 ##
root@web1:~# mysql
mysql> show master status;
+——————+———-+————–+——————+
| File | Position | Binlog_Do_DB | Binlog_Ignore_DB |
+——————+———-+————–+——————+
| mysql-bin.000004 | 107 | kurusetra | mysql,test |
+——————+———-+————–+——————+
1 row in set (0.00 sec)
# 107 adalah posisi awal sebelum database kurusetra di isi dengan tabel
## POSISI DI WEB2 ##
# KITA JADIKAN WEB1 SEBAGAI MASTER WEB2
root@web2:~# mysql
mysql> slave stop;
mysql> CHANGE MASTER TO MASTER_HOST=’192.168.57.40′, MASTER_USER=’replicator’, MASTER_PASSWORD=’password’,MASTER_LOG_FILE=’mysql-bin.000004′, MASTER_LOG_POS=107;
mysql> start slave;
mysql> show slave status \G
*************************** 1. row ***************************
Slave_IO_State: Waiting for master to send event
Master_Host: 192.168.57.45
Master_User: replicator
Master_Port: 3306
Connect_Retry: 60
Master_Log_File: mysql-bin.000004
Read_Master_Log_Pos: 107
Relay_Log_File: mysqld-relay-bin.000002
Relay_Log_Pos: 253
Relay_Master_Log_File: mysql-bin.000004
#Slave_IO_Running: Yes dan Slave_SQL_Running: Yes
#Berarti Web2 siap melakukan replikasi tabel database kurusetra dari Web1
Slave_IO_Running: Yes
Slave_SQL_Running: Yes
mysql> show master status;
+——————+———-+————–+——————+
| File | Position | Binlog_Do_DB | Binlog_Ignore_DB |
+——————+———-+————–+——————+
| mysql-bin.000004 | 1065 | kurusetra | mysql,test |
+——————+———-+————–+——————+
1 row in set (0.00 sec)

Konfigurasi Replikasi Web2 ke Web1

#POSISI DI WEB1
#KITA JADIKAN WEB2 SEBAGAI MASTER WEB1
root@web1:~# mysql
mysql> slave stop;
mysql> CHANGE MASTER TO MASTER_HOST=’192.168.57.41′, MASTER_USER=’replicator’, MASTER_PASSWORD=’password’, MASTER_LOG_FILE=’mysql-bin.000004′, MASTER_LOG_POS=1065;
mysql> slave start;
mysql> show slave status\G
*************************** 1. row ***************************
Slave_IO_State: Waiting for master to send event
Master_Host: 192.168.57.46
Master_User: replicator
Master_Port: 3306
Connect_Retry: 60
Master_Log_File: mysql-bin.000004
Read_Master_Log_Pos: 1065
Relay_Log_File: mysqld-relay-bin.000002
Relay_Log_Pos: 253
Relay_Master_Log_File: mysql-bin.000004
Slave_IO_Running: Yes
Slave_SQL_Running: Yes

Pengujian Replikasi Web1 ke Web2

## POSISI KEMBALI KE WEB1 ##
mysql> use kurusetra;
mysql> create table dariweb1 (mid int(11) auto_increment, PRIMARY KEY
-> (mid)) Engine=MyISAM;
mysql> insert into dariweb1 () values ();
##CEK TABEL DI WEB2 (POSISI DI WEB2) ##
mysql> use kurusetra;
mysql> show tables;
#TABEL YANG DIBUAT DI WEB1
#MUNCUL DI WEB2
mysql> show tables;
+———————+
| Tables_in_kurusetra |
+———————+
| dariweb1 |
+———————+
mysql> select * from dariweb1
-> ;
+—–+
| mid |
+—–+
| 1 |
+—–+

Pengujian Replikasi Web2 ke Web1

#POSISI DI WEB2
root@web2:~# mysql
mysql> use kurusetra;
mysql> create table dariweb2 (mid int(11) auto_increment, PRIMARY KEY
-> (mid)) Engine=MyISAM;
mysql> insert into dariweb2 () values ();
mysql> insert into dariweb1 () values ();

#POSISI DI WEB1
root@web1:~# mysql
mysql> use kurusetra;
mysql> show tables;
+———————+
| Tables_in_kurusetra |
+———————+
| dariweb1 |
| dariweb2 |
+———————+

mysql> select * from dariweb2;
+—–+
| mid |
+—–+
| 1 |
+—–+
mysql> select * from dariweb1;
+—–+
| mid |
+—–+
| 1 |
| 2 |
| 3 |
| 4 |
| 5 |
| 6 |
+—–+

Linux IPTV

 
 
IPTV Server
features:

  • multicast streaming to local networks (in basic setup) 
  • multicast udp proxy streaming to public networks
  • User authentication
  • Scrambled channels with scam (latest oscam) or CAM module
  • IPTV management Portal
  • Set Top Box with custom IPTV Portal

Hardware
Ubuntu precise (12.04.1 LTS)
  • 4 GB DDR3 Ram
  • AMD FX-6100 Six-Core Processor
DVB-S cards from Digitaldevices 
2x Digital Devices Cine S2 PCI-E
  • 6x Digital Devices DuoFlex S2
  • 16 Tuners on 2 PCI-E 1x cards
Card Reader

Software used
Apache2

Installasi 


Install a Linux System on your Server (Preferred Debian or Ubuntu)

Download and install Mumudvb from source.
 wget https://github.com/braice/MuMuDVB/archive/master.zip  
 unzip master zip  
 cd mumudvb  
 apt-get update  
 apt-get install build-essential autotools automake gettext libtool  
 autoreconf -i -f  
 ./configure --enable-cam-support --enable-scam-support  
 make  
 make install  

 
Stalker Portal (IPTV Portal)
 wget https://github.com/azhurb/stalker_portal/archive/v4.8.71.zip  
 sudo apt-get update  
 sudo apt-get install apache2 php5 php5-pear mysql-server libapache2-mod-php5filter  
 pear channel-discover pear.phing.info  
 pear install phing/phing  
 unzip v4.8.71.zip  
 cp -a stalker_portal* /var/www/stalker  
 mysql -u root -p  
   
 create database stalker_db;  
 GRANT ALL PRIVILEGES ON stalker_db.* TO stalker@localhost IDENTIFIED BY '1' WITH GRANT OPTION;  
 cd /var/www/stalker/deploy  
 sudo phing install  
 vim /etc/php5/apache2/php.ini  
 short_open_tag = On  
 a2enmod rewrite  
 in your virtualhost config set  
 Options -Indexes -MultiViews  
 AllowOverride All  

Optimalisasi Desktop Linux


Cukup satu Window Manager
kebanyakan pemula biasanya akan senang sekali mengutak-atik system linux-nya dengan meng-install berbagai macam window manager, seperti Gnome, Mate, KDE, Trinity dan lain-lain. padahal window manager yang sebenarnya dipakai pasti hanya satu. untuk itu pastikan kita hanya menggunakan satu window manager saja. tidak perlu terlalu banyak window manager. selain boros Harddisk juga menghabis kan memory karena terkadang service window manager tersebut di-load walaupun tidak sedang dipakai.

Pastikan Aplikasi yang digunakan Hanya untuk Window Manager yang anda pakai.
setelah hanya satu window manager yang dipakai, saatnya untuk memastikan bahwa aplikasi yang anda pergunakan memang khusus untuk berjalan di window manager tersebut. misalnya kita pakai gnome, maka pergunakanlah aplikasi yang dependent ke gnome, sepeti gcompris dll. seandainya kita menggunakan aplikasi dengan berbeda window manager maka linux akan menginstall pula core window manager tersebut, dan ini membuat system melakukan load 2 core window manager sekaligus. untuk sekedar tips memilih aplikasi misalnya anda memakai Gnome, carilah aplikasi yang berawalan huruf G, misalnya GCompris, Gnumeric dan lain-lain, itu adalah aplikasi yang dependent ke gnome (walaupun tidak semua aplikasi berawalan G adalah untuk Gnome), untuk aplikasi yang dependent ke KDE silakan cari yang berawalan huruf K, misalnya Koffice, Kanagram, KPDF dan lain-lain.

Buang semua aplikasi yang ganda

berapa browser yang ter-isntall di PC anda, berapa aplikasi office yang ada di PC anda, dan berapa music atau video player yang ada di PC anda. jika jawabanya lebih dari 1, maka silakan anda tentukan pilihan mana yang ingin anda pakai selamanya. secara default linux menyertakan firefox sebagai bawaan, jika anda leih menyukai chrome atai browser lain, silakan uninstall terlebih dahulu, begitu juga dengan office, biasanya Libre office sekarang sudah menjadi standard paket office baik gnome maupun kde. jadi hemat saya kita tidak perlu meng-install dua aplikasi yang berbeda hanya untuk fungsi yang sama, tentukanlah pilihan anda ke salah satu aplikasi.

Gunakan Linux Minimalis

gunakan Linux minimal Footprint, kalau hardware anda adalah hardware versi lama, silakan gunakan linux yang ringan, seperti puppy linux atau DSL. banyak distro-distro linux yang memang di sediakan untuk hardware-hardware lama. jika anda tertarik silakan baca ditulisan saya 10 linux ringan dan minimalis alternatif.

Susun Ulang DIrectory
booting menggunakan system live CD atau USB flash drive. Kemudian masuk ke terminal. Application >Accessories > Terminal
Kemudian login sebagai root dengan perintah sudo bash
Lihat partisi yang ingin di optimalkan dengan perintah df h atau fdisk l
misalnya kita ingin mengoptimasi susunan direktori pada partisi /dev/sda1. Maka jalankan perintah e2fsck fD /dev/sda1.
-D berarti mengoptimalisasi susunan direktori atau folder dalam filesystem. E2fsck mengoptimasi dengan cara mengindeks ulang direktori, atau mengurutkan dan mengkompress untuk direktori yang lebih kecil. Dengan mengindeks ulang susunan filesystem anda, maka filesystem lebih terasa responsif.

noatime dan writeback untuk Optimasi (khusus ext3 dan reiserfs)
Untuk mengaktifkan noatime dan writeback kita harus meng-edit fstab. Perintahnya #sudo nano /etc/fstab
Contoh pada baris fstab berikut ini tambahkan opsi noatime dan writeback UUID=3eb414ba51984c1f9e3de91675329f83 / ext3 defaults,data=writeback,noatime,errors=remountro 0 0
selanjutnya edit file konfigurasi grub, dengan #sudo nano /boot/grub/menu.lst
tambahkan baris rootflags=data=writeback
kemudian jalankan perintah sudo updategrub
Apabila filesystem memakai ext3, gunakan perintah #sudo tune2fs o journal_data_writeback /dev/sda1
Selanjutnya reboot komputer anda. Jika benar maka akses audio, gambar, dan video akan terasa lebih cepat, NB saya dapat tips ini dari blog sebelah, saya belum pernah coba yang ini soalnya saya pakai Ext4.

Atur Swap
Cache memory digunakan oleh system Linux untuk aplikasi yang sewaktu-waktu digunakan kembali, maka memori cache akan digunakan oleh aplikasi tersebut. Sistem Linux menggunakan memori yang tidak terpakai pada RAM sebagai cache aplikasi. silakan edit pada file sysctl.conf, perintahnya #sudo gedit /etc/sysctl.conf Apabila komputer anda memiliki memori yang pas-pasan, dan tidak ingin menggunakan cache swap, tambahkan baris vm.swappiness=0 Sebaliknya, apabila anda memiliki memori besar, dan ingin mengoptimalkan penggunaan cache tambahkan baris vm.swappiness=100. karena kasus saya memori saya 4GB dan ini merupakan memori yang cukup besar, maka saya masukan vm.swappiness=100 supaya memori tidak nganggur.

Mempercepat Booting
Optimasi Processor Dual Core Untuk Concurrent booting
Apabila anda memiliki komputer dengan processor dual core, anda bisa memanfaatkannya untuk memproses booting agar lebih cepat. Buka terminal anda, kemudian edit file rc dengan perintah #sudo nano /etc/init.d/rc Pada baris CONCURRENCY=none ganti menjadi CONCURRENCY=shell Concurrency sendiri artinya melakukan bersama-sama, dalam hal ini proses booting akan dilakukan bersamaan oleh dua processor tersebut sehingga bisa lebih cepat.

Menggunakan paket preload
preload merupakan paket yang digunakan untuk mengoptimalkan proses booting dan startup aplikasi. Untuk menginstall preload jalankan perintah #sudo apt-get install preload Setelah diinstall preload akan berjalan sendiri, anda tidak perlu melakukan konfigurasi apapun, karena developernya telah mengoptimasikan preload tersebut. Atau apabila anda ingin mengetahui buka file konfigurasinya di /etc/preload.conf

OPTION DEFAULT
CONTROL
Cache model (system) settings
model.cycle 20
[seconds] Bagaimana Preload akan mengumpulkan data dari system anda dan mengupdate databasenya yang berisi program dan library anda
model.halflife 168
[hours] tenggang waktu maksimal preload akan menghapus data lama.
model.minsize 2000000
[bytes] minimal memory yang akan dipakai untuk System Calls yang akan dipakai oleh preload. semakin kecil berarti semkain kecil pula cache aplikasi untuk preload.
Memory settings
rumus untuk menemukan memory maksimum yang tersedia dari preload adalah :
(Total RAM x model.memtotal) + (RAM tersedia saat start x model.memfree) + (Cached memory x model.memcached)
model.memtotal -10%
model.memfree 100%
model.memcached 30%


Untuk memonitor aktivitas preload anda dapat melihat log-nya. Pada terminal gunakan perintah #sudo tail f/var/log/preload.log
Menggunakan preload dapat mengoptimalkan waktu startup system anda. Karena kebanyakan komputer saat ini memiliki RAM yang besar, preload memanfaatkan RAM ini untuk digunakan secara optimal.

Menggunakan Opsi profile pada Grub
Anda juga dapat membuat profile boot anda, sehingga kedepannya booting akan membaca file profile yang disimpan. Untuk membuat profile pada layar boot grub, tekan e pada baris

/boot/vmlinuz2.6.2416generic root=UUID=3eb414ba51984c1f9e3de91675329f83 ro splash=verbose vga=794

pada akhir baris tambahkan profile. Kemudian tekan b untuk membooting sistem anda. Ketika proses booting, system akan mempelajari booting apa saja yang dilakukan kemudian akan membacanya kembali untuk proses booting selanjutnya.Menonaktifkan Ipv6
Secara defaut Ubuntu mengaktifkan protokol Ipv6, anda harus membuat sebuah file untuk memblok protokol ini. Ketik perintah sudo gedit /etc/modprobe.d/bad_list kemudian tambahkan baris alias netpf10 off
Kemudian save

Menggunakan Paket prelink
install paket prelink dengan perintah #sudo apt-get install prelink
kemudian buka file konfigurasi prelink dengan perintah #sudo nano /etc/default/prelink
Ubah baris PRELINKING=unknown menjadi PRELINKING=yes
Untuk menjalankan prelink jalankan perintah #sudo /etc/cron.daily/prelink
Selanjutnya prelink akan menjalankan quick prelink setiap hari, biasanya dimalam hari (kurang dari 1 menit), sedangkan setiap 14 hari full prelink akan berjalan. Anda dapat mengganti waktu prelink tersebut pada crontab Menggunakan Paket pessulus dan Ubuntutweak Selain optimasi manual, anda juga dapat menggunakan paket Optimasi Ubuntu, aplikasi yang sering digunakan adalah Ubuntutweak.


Untuk menjaga tampilan panel pada desktop agar tidak berubah-ubah, anda dapat menggunakan paket pessulus. Install dengan perintah #sudo apt-get install pessulus.


Menonaktifkan Ipv6 (jika tidak digunakan)
defaut Ubuntu dan turunanya mengaktifkan protokol Ipv6, anda harus membuat sebuah file untuk memblok protokol ini. Ketik perintah ini di terminal untuk menon-aktifkan fitur ini.#sudo nano /etc/modprobe.d/bad_list kemudian tambahkan baris alias netpf10 off Kemudian keluar dengan me-SAVE-nya, caranya tekan Ctrl + X kemudian tekan huruf Y dan diikuti enter.

Bikin Boot Profile
Ubuntu atau Linux pada umumnya, ketika pertama kali booting, biasanya akan melakukan pencarian driver untuk dilakukan load ke system. yang dilakukan oleh grub adalah mencari driver mana yang terpakai kemudian di load. waktu pencarian inilah yang ingin kita optimalkan, bayangkan saja jika linux memiliki banyak driver, bisa memakan waktu lebih lama. caranya adalah dengan meminta supaya grub membuat profile atau semacam list driver – driver tertentu yang akan di load. kalo biasanya grub nyari satu-satu untuk menemukan yang mana yang akan di load, sekarang grub cukup membaca dari sebuah list yang mana itu adalah driver yang akan di load semua. silakan buka file etc/default/grub dan lalukan editing pada file tersebut seperti baisa saya #sudo nano /etc/default/grub, silakan cari baris GRUB_CMDLINE_LINUX_DEFAULT=”quiet splash” menjadi GRUB_CMDLINE_LINUX_DEFAULT=”quiet splash profile” selesai di edit silakan ketikan perintah untuk melakukan update pada grub2, #sudo update-grub2.

Hapus Splash Screen boot di Linux
pada saat linux sedang booting biasanya akan muncul tulisan boot atau apa gitu lah. fungsinya adalah untuk memberikan gambar animasi yang mengatakan bahwa linux sedang boot, namun untuk PC yang lemot, ada baiknya fitur splash screen ini dimatikan saja, caranya adalah dengan mengedit grub, trik ini mirip dengan trik sebelumnya. buka file /etc/default/grub dengan mengetikan #sudo nano /etc/default/grub kemudian cari baris GRUB_CMDLINE_LINUX_DEFAULT=”quiet splash profile” (ini mirip dengan trik bikin boot profile) kemudian hapus kata-kata splash disana sehingga berubah menjadi GRUB_CMDLINE_LINUX_DEFAULT=”quiet profile”. nah dengan cara ini maka splash screen tidak akan ditampilkan. satu lagi pastikan anda tidak meng-install plymouth-theme-ubuntu-text. jika terlanjur terinstall maka silakan di uninstall, kenapa karena kalau ter-install paket tersebut maka splash screen akan diganti dengan plymouth ubuntu text.
Ganti apt-get dengan apt-fast
saya sendiri baru tahu kalau ada apt-fast, sepertinya ini adalah program bikinan siapa gitu untuk mempercepat download aplikasi dari repository. saya tidak tahu juga bagaimana caranya berkerja yang pasti ketika saya pakai jadi cepat aja. untuk menggunakan apt-fast kita harus menambahkan dahulu repository apt-fast.
#sudo add-apt-repository ppa:tldm217/tahutek.net
#sudo apt-get update
#sudo apt-get install apt-fast
setelah itu anda tinggal menggunakan apt-fast untuk men-download aplikasi dari repository , misalnya apt-get install ubuntu-tweak silakan diganti apt-fast ubuntu-tweak.
 
Copyright © 2011. COMASTNET - All Rights Reserved