illumiati,. apakah itu ?


        Seminggu terakhir ini, media di Indonesia diramaikan oleh berita tentang konser seorang artis dari amrik, LG. Banyak media massa yang menjadikanya sebagai berita utama. Tentu saja hal ini dengan tidak sengaja telah membuat si LG tersebut menjadi lbih “terkenal”. Minimal, orang yang sebelumnya tidak tahu tentangnya, menjadi tahu.

        Diantara sebab ramainya pemberitaan tersebut karena adanya protes dan aksi menentang dan menuntut pencekalan dari masyarakat agar LG tidak tampil dan konser di Indonesia. Dan diantara alasan nya adalah, LG disebut sebagai penganut setan, bisa membawa dampak buruk bagi masyarakat dan karena si LG lekat dengan hal dan simbol Illuminati.

        Terlepas dari pro dan kontra tentang konser LG tersebut, dan pasti masing-masing punya alasan dan argumen yang kuat pula. Namun, dari kasus tersebut, ada kata baru dan belum banyak dikenal orang , yaitu Illuminati. Mungkin hal inilah yang menjadi alasan penolakan kelompok masyarakat terhadap LG tersebut.

Berdasarkan penjelasan di id.wikipedia.org “Illuminati (bentuk plural dari bahasa Latin illuminatus, “tercerahkan”) adalah nama yang diberikan kepada beberapa kelompok, baik yang nyata (historis) maupun fiktif. Secara historis, nama ini merujuk pada Illuminati Bavaria, sebuah kelompok rahasia pada Zaman Pencerahan yang didirikan pada tanggal 1 Mei tahun 1776….. Selanjutnya sila layari http://id.wikipedia.org/wiki/Illuminati.

Setelah membaca tulisan tersebut,… bagaimana pendapat anda sekarang ????

 

 

Memetakan Fikiran


Memetakan Fikiran (Mind Mapping)

Berfikir dan fikiran. Semua orang tentu punya fikiran dan semua orang juga bisa berfikir. Semua orang juga tahu, jika seseorang itu sedang berfikir atau memikirkan sesuatu. Kedengarannya, hal tersebut sederhana dan terkadang dianggap hanya sebuah ungkapan tanpa makna dan kadangkala terkesan main-main.

Namun, ketika seseorang atau orang yang berfikir atau sedang memikirkan sesuatu tersebut diminta untuk mengungkapkan apa yang sedang, telah dan apa yang akan difikirkannya, baru timbul sedikit persoalan. Apalagi jika diminta menceritakan dan menggambarkan apa yang ada difikiran tersebut kebentuk notasi atau tulisan (dalam knowledge management disebut dengan istilah transfer tacit knowledge ke bentuk explicit knowledge: Nonaka Takeuchi, 2006) yang teratur, mudah dimengerti dan mempunyai arti yang jelas .

Ada beberapa cara untuk mengungkapkan dan berbagi fikiran kebentuk nyata, yaitu melalui tulisan, gambar atau puisi/pantun dan musik. Cara-cara tersebut akan lebih efektif jika teknik “memetakan fikiran” telah dipahami dengan baik. Memetakan fikiran dapat dilakukan dengan menuliskan apa saja yang ada difikiran kedalam bentuk kata-kata, gambar atau simbol yang mudah dipahami. Kata-kata tersebut (sebutlah dengan “keyword) ditulis dan disusun menjadi bentuk jaringan atau rangkaian. Kemudian dari kata yang sudah ada tersebut, uraikan/turunkan lagi kedalam bagian yang lebih kecil lagi (ingat : kata berikutnya harus dan masih berhubungan dengan kata pertama). demikian seterusnya, sampai tidak ada lagi turunannya.

Cara ini akan terasa manfaatnya  jika dilakukan terus menerus dan akan lebih baik lagi jika dikerjakan bersama-sama (brain storming) dan akan melatih dan membuat anda berfikir secara terstruktur dan terkendali. Dan menurut praktisi NLP (Neuro Language Programing) cara ini sesuai dengan cara kerja otak secara alami dan sehingga akan mudah mengingatnya dibanding cara lain.

Sebagai alat bantu, bisa digunakan perangkat lunak yang tersedia dipasaran (bisa di beli atau donlod di situs yang menyediakannya secara gratis). Contoh dari pemetaan fikiran (mind map) dari sebuah masalah  sederhana dapat dilihat pada gambar, dan softwarenya juga bisa dilihat dan unduh di link tersebut.

Selamat berkreasi,….

contoh (courtesy:edrawsoft.com):

Example of Mind Map

Klik untuk meng-unduh

Selamat Milad ke 3, “Blogger Bertuah”


Bravo Blogger Bertuah

Saya mengucapkan “Selamat Milad ke 3 Blogger Bertuah“, semoga menjadi tempat, pelopor dan sumber perubahan serta kemajuan yang berazaskan pengetahuan, kebijaksanaan dan kebersamaan. Maju terus dan tetap eksis. Bravoooo

Kampus Hijau


Kemarin petang, kira-kira saat seperti sekarang inilah sebuah foto saya ambil dari kamera handphone Nokia 8MP. Ketika keluar dari Fakultas Sanis Teknologi tempat ku bekerja dan cuaca cerah setelah hujan yg cukup lebat walau sebentar. Terlihatlah Nidji atau pelangi di cakrawala. Masya Allah, indahnya. Dengan tidak menyia-nyiakan moment yang jarang-jarang bisa dijumpai, apatah lagi dengan bekgron kampus ku yang mulai hijau dan anda danau kecil yg masih kurang terawat dengan baik (mudah mudahan segera menjadi Green Campus) . Aamin

Walau demikian, hasilnya diluar dugaan, cukup bagus dan memuaskan, minimal bagi saya sebagai seorang yang tidak profesianal dibidang fotographi. Photo yg saya aplod sesaat setelah foto diambil, langsung mendapat respon dari sahabat2 dan bahkan menjadikannya sebagai wallpaper. Subhanallah.

Padahal, niat awalnya hanya untuk berbagi moment dan pemandangan yang indah dari hasil karya sang Maha Pencipta. Jadi ingat lagu pelangi deh. hhehe

 

Green House (Rumah Hijau)


Menurut wikipedia.id Rumah kaca (atau rumah hijau) adalah suatu bangunan tempat tanaman ditumbuh kembangkan atau dibudidayakan. Rumah kaca dapat terbuat dari bahan gelas atau plastik. Rumah kaca tersebut menjadi panas karena adanya radiasi elektromagnetik   yang berasal dari pancaran sinar  matahari yang dapat memanaskan tumbuhan, tanah, dan benda lainnya di dalam nya.

Istilah “green house” atau rumah hijau sudah lama saya dengar. Walau sudah lama mendenngarnya, tapi baru beberapa bulan yang lalu baru sedikit memahaminya. Dan baru tahu juga bahwa rumah hijau itu sama dengan rumah kaca. Ini dikarenakan, saya langsung melihat rumah hijau tersebut di sebuah tempat pembibitan kayu yang dibangun oleh sebuah perusahaan pembuat kertas.

Saat kunjungan lapangan ke rumah hijau yang merupakan satu agenda tahunan sempena helat seminar Internasional yang diadakan dikampus UIN Suska Riau, saya dan rekan-rekan panitia serta peserta seminar menikmati suguhan ilmiah dan tutorial praktis dari pengelola rumah hijau tersebut. Dengan penuh antusias dan dan lugasnya, beliau menjelaskan maksud, fungsi dan manfaat rumah hijau ini. Banyak hal yang kami dapat dan tahu dari penjelasan beliau berkaitan dengan tanaman kayu untuk pebuatan kertas, pembibitan tanaman HTI sampai pada siap panen “ditebang an diolah”.

Dalam perjalanan pulang, saya berbincang dengan rekan-rekan didalam bus dan sambil bergurau saya mengatakan ” ternyata rumah hijau yang kita kunjungi tadi sama sekali tidak ada cat hijaunya ya??? “.

Lalu bagaimana dengan konsep kampus hijau ? Apakah bisa disebut kampus hijau hanya karena gedung-gedung dan seragam para pegawainya berwarna hijau ?

Jiplak n Caplok


Assalamualaikum

soal jiplak menjiplak, memang ada kalangan yg tidak setuju. tapi tak sedikit juga yg setuju masing2 punya alasan dan dasar pemikiran yg jelas dan kuat juga tentunya. Yg tidak setuju haknya dibajak atau dijiplak, mereka akan mematenkan hak-nya, spy dikemudian hari tdk bisa seenaknya di apa2in, termasuk dijiplak dan dicaplok. Mungkin inilah yg mendasari didirikannya lembaga Patent atau adanya UU HAKI.

Disisi lain, pihak yg tdk mempermasalahkan ttg siapa yg punya dan membuatnyamerasa tenang2 aja dan malah suka bila kepunyaan, ciptaan dan hasil karyanya digunakan, dipakai dan mungkin juga diakui sebagai miliknya alasannya adalah, selagi karyanya dipakai, selama itu pula pahala dan kebanggaan serta kepuasan akan dirasainya. Dan yg lebih penting lagi,… Selama itu juga pahala akan terus mengalir kepadanya

Mungkin contoh pihak yg sesuai n mendkung pemikiran ini adalah : Open source, Harun Yahya, atau juga Risalah2 keagamaan/kepercayaan.

Lalu bagaimana sikap  saya ?

Kedua pendapat tsb, adalah sikap dari masing2 orang, kelompok bahkan negara Masing2 ada keuntungan, dan ada pula kerugiannya. Ada yg untung moril, tpi rugi materil, atau untung materil tapi kalah pada moril

Anda pilih yg mana ,..??? itu ter-serah anda. Pilihan anda akan memperlihatkan siapa anda,….

karena orang akan bertindak berdasarkan pengalamannya dimasa lalu dan sesuai dg kepribadian dan apa yg sedang difikirkannya

{Morgan, W. G. (1995). Thematic Apperception Test. Journal of Personality Assessment, 65, 237-254.

banyak maap

wassalam

(sbg liustrasi, maap jika ada yg tidak berkenan) mungkin ada yg bisa menjawabnya tentu setelah berfikir jernih dan dengan dasar atau alasan yg jelasdan tidak dibuat2 atau sekedar emosi pribadi aja. jaket yg pernah kita pakai dulu itu warnanya apa ya?pernahkah anda menanyakan apa itu emmang ide asli pembuatnya?apa itu perlu dipermasahkan dan apakah yg punya jaket mirip spt itu lebih dulu pernah komplain n mempermasalahkannya jg?

hmmm,….

Ikatlah ilmu dengan menuliskannya


Memang benar kata Imam Ali bin Abi Thalib “Ikatlah ilmu dengan menuliskannya” .  Sangat terasa dan membekas sekali pernyataan itu, ketika setelah sekian lama tidak aktif menulis (khususnya pada blog ini), terasa ada sesuatu yang kurang.

Walaupun banyak pengalaman, informasi atau  ilmu pengetahuan yang didapat dalam kurun ketidak aktifan tersebut, namun semuanya akan lebih bermakna jika dituangkan kedalam bentuk tulisan. Sesuatu yang paling pentingpun jika tidak diungkapkan, maka sesuatu itu bisa saja menjadi tidak penting dan bermanfaat.

Dalam bidang ilmu Knowledge Manajemen, hal tersebut dikenal dengan istilah transfer pengetahuan (Knowledge Transfer) dari Tacin Knowledge menjadi Explicit Knowledge. Perlu suatu keahlian, teknik dan ilmu, untuk dapat mentransfer pengetahuan Tacit ke Explicit menjadi sesuatu yang lebih bermakna. Diantara cara atau tekniknya adalah dengan mengungkapkannya melalui tulisan.

bersambung,….

Luka di Hypermart


Terluka di Hypermart

Siang Ini (18 Juni 2011) menjadi  hari yang paling tidak menyenangkan, padahal sebelumnya saya berencana hari libur ini akan refresing sambil berbelanja keperluan anak. Tapi boro-boro mau  refresing malah rasa dongkol dan rasa kecewa berat yang didapat. Apa pasal ??? Sekitar jam 12 siang saya sampai di Mall SKA Pekanbaru. Setelah menemani anak bermain mandi bola, sekitar pukul 13.45 saya masuk gate hypermart dan langsung menuju ke tempat penjualan susu anak-anak. Ketika hendak menuju ke rak susu tersebut, saya melewati tempat penjualan sepatu olahraga. Karena kelihatan model dan harganya menarik, saya jadi tertarik untuk mendekati dan melihat dari dekat. Lalu saya langsung mengambil sepasang sepatu yang menarik tersebut, tapi apa yang terjadi? Tiba-tiba saya merasakan nyeri dan sakit di jari jempol kiri saya dan secara reflek menarik tangan saya untuk memeriksanya.  Saya kaget karena ternyata jari jempol saya  menggeluarkan darah. Kontan saja saya segera mengecek sepatu tersebut dan menemukan sebuah benda mirip paku payung berkarat disepatu tersebut.

Dengan rasa sakit dan pedih ditangan, saya mencoba mencari SPG untuk menyampaikan keberatan, complain dan minta pertanggung jawabannya. Tetapi saya tidak menemukannya dan langsung menemui satpam jaga dan meminta padanya agar saya dipertemukan dengan supervisornya. Tapi saya di oper ke  counter informasi, dan sesampainya sana, petugasnya menghubungi Supervisor yang piket saat itu.

Setelah berhadapan dengan 2 orang supervisor hypermart yang jaga tersebut , saya berharap mereka bisa memberikan solusi terhadap luka di jari saya tersebut. Tapi apa lacur ??? Kalimat pertama yang keluar dari mulut sisupervisor adalah “Bapak sudah bayar sepatu ini? Di kassa mana ? Sontak jawaban itu membuat jari saya semakin sakit, jantung berdetak kencang dan membuat saya jadi emosi. Lalu dengan nada sedikit tinggi saya katakana padanya “Kamu ini bagaimana, saya ini lagi complain karena terluka oleh sepatumu. Kenapa itu pula yang kamu tanyain. Kamu fikir dong, gimana saya mau beli, baru dipegang saja saya sudah terluka. Saya tidak terima akan keteledoran ini. Saya ingin pihak kamu bertanggung jawab. Namun reaksi si supervisor hanya berkata “Maap pak, mungkin SPG nya kelupaan mencabut pakunya”. Lalu saya tanya lagi “ apa hanya minta maap saja, apa tindakan kamu selanjutnya?” “Untuk sementara kami hanya bisa minta maap pak “ katanya tanpa rasa bersalah sedikitpun. Menyadari tidak akan adanya kepedulian dan penyelesaian dari pihak Hypermart , akhirnya saya dengan kesal meninggalkan kedua supervisor tersebut dan memutuskan tidak jadi belanja dan meninggalkan hypermart dengan rasa dongkol dan kecewa. Tapi, sebelum meninggalkan hypermart, saya sempat memotret jari saya yang luka tersebut untuk dokumentasi

Dalam hati saya berkata, beginikah layanan dan kepedulian sebuah perusahan sekelas “Hypermart” terhadap pelanggannya? Jangankan memberikan Kompensasi, menanyakan luka dan memberi bantuan P3K pu tidak.  Apa karena saya kere, tidak perlente karena tak berpakaian smart, tak pakai jas dan tidak berpengawal kah, Sehingga disepelekan dan diabaikan begitu saja???

Menguji, diuji dan ujian


Menguji, diuji dan ujian

Hari ini saya mendapat tugas menguji tugas akhir (skripsi) mahasiswa jurusan Sistem Informasi dan diselingi sebagai chairman (ketua Sidang). Dari kegiatan ini, ada beberapa hal yg dapat dijadikan pelajaran dan pembelajaran diri. Pertama, sebagai penguji kadang kala juga di uji jg oleh mahasiswa. Bagaimana bisa begitu ya ???

Bentuk ujian tersebut bermacam-macam , diantaranya adalah ujian kesabaran.  Sabar dalama menunggungu jawaban yg jelas dan benar dari mhs, mencoba memahami jawaban yg bertele-tele dan bahkan mencoba menahan rasa (haru, geli dan gemes) melihat lagak dan gaya presentasi mereka. Ada yg presentasi sambil senyum2 walau tidak paham apa yg dipresentasikannya, ada yg ngeyel karena bertahahan akan kebenaran pendapatnya walau penguji tahu bahwa hal yg diyakininya adalah salah dan ada yg sangat percaya diri.

Walau demikian, yang tampil mendekati perfect/sempurna jg ada, perbaikannya hanya menambah lampiran dan pembetulan format penulisan dan diperkirakan hanya dalam 1 minggu si mahasiswa tersebut bisa menyelesaikannya.

Terlepas dari itu semua, semoga yang menguji dan yang di uji dapat menghasilkan yang terbaik dan menghasilkan lulusan Sarjana Komputer (S.Kom) yg handal. Do the best,..  Insya Allah

 

Joint di Twitter dimarahi,….


Walau sudah lama mengetahui keberadaan twitter sebagai jejaring sosial yg mendunia dan sangat digemari sang, tapi baru skaru kali ini saya tergoda untuk menjamah dan menggelutinya. Ada beberapa sebab kenapa baru sekarang mau join, diantaranya adalah karena sibuk dengan program lain, belum merasa perlu dan belum merasa jadi pakar atau ahli, apalagi seleb. Hhhe. Tapi alasan yg paling betul diantara yg benar adalah karena belum siap untuk tenar dengan banyak follower. wkwkwkw.

Lalu, setelah join saya sperti dimarahi pula oleh si twitter. Ketika buat status yg pertama, langsung di marahin oleh si twitter dengan sapaan sinisnya “Your tweet was over 140 characters. You’ll have to be more clever”.

Alamak, baru aja mau join dan ber-akrab ria dengnmu, sudah disindir2. nggg alahhh,.. Komputer sudah seperti manusia saja.

Muncul lagi,…


Ahlan wa sahlan,…

Setelah sekian lama tidak aktif menulis, saya kembali mulai menulis lagi. Ternyata kerinduan akan menulis lagi tidak mampu saya pendam lebih lama lagi. Mungkin seperti perasaan seorang dara yang sudah lama tidak bertemu dengan pujaan hatinya ( kok sperti cerita novel saja ya,.. hhhehe)

Mudah2an kemunculan ini dapat mengobati kerinduan ini dan kerinduan pengunjung setia blok ini. Pengunjung yang setia membaca goresan dan celotehan yang kadang kala nyeleneh, asal-asalan, belaagak sperti pakar dan terkadang nyindir tapi diusahakan ringan, simpel dan mudah2an bermanfaat. Minimal akan memberikan sudut pandang dan pemikiran yang beda. Insya Allah

Support Vector Machine (SVM)


Support Vector Machine (SVM)

Overview

SVMlight is an implementation of Support Vector Machines (SVMs) in C. The main features of the program are the following:

  • fast optimization algorithm
    • working set selection based on steepest feasible descent
    • “shrinking” heuristic
    • caching of kernel evaluations
    • use of folding in the linear case
  • solves classification and regression problems. For multivariate and structured outputs use SVMstruct.
  • solves ranking problems (e. g. learning retrieval functions in STRIVER search engine).
  • computes XiAlpha-estimates of the error rate, the precision, and the recall
  • efficiently computes Leave-One-Out estimates of the error rate, the precision, and the recall
  • includes algorithm for approximately training large transductive SVMs (TSVMs) (see also Spectral Graph Transducer)
  • can train SVMs with cost models and example dependent costs
  • allows restarts from specified vector of dual variables
  • handles many thousands of support vectors
  • handles several hundred-thousands of training examples
  • supports standard kernel functions and lets you define your own
  • uses sparse vector representation

Description

SVMlight is an implementation of Vapnik’s Support Vector Machine [Vapnik, 1995] for the problem of pattern recognition, for the problem of regression, and for the problem of learning a ranking function. The optimization algorithms used in SVMlight are described in [Joachims, 2002a ]. [Joachims, 1999a]. The algorithm has scalable memory requirements and can handle problems with many thousands of support vectors efficiently.

The software also provides methods for assessing the generalization performance efficiently. It includes two efficient estimation methods for both error rate and precision/recall. XiAlpha-estimates [Joachims, 2002a, Joachims, 2000b] can be computed at essentially no computational expense, but they are conservatively biased. Almost unbiased estimates provides leave-one-out testing. SVMlight exploits that the results of most leave-one-outs (often more than 99%) are predetermined and need not be computed [Joachims, 2002a].

New in this version is an algorithm for learning ranking functions [Joachims, 2002c]. The goal is to learn a function from preference examples, so that it orders a new set of objects as accurately as possible. Such ranking problems naturally occur in applications like search engines and recommender systems.

Futhermore, this version includes an algorithm for training large-scale transductive SVMs. The algorithm proceeds by solving a sequence of optimization problems lower-bounding the solution using a form of local search. A detailed description of the algorithm can be found in [Joachims, 1999c]. A similar transductive learner, which can be thought of as a transductive version of k-Nearest Neighbor is the Spectral Graph Transducer.

SVMlight can also train SVMs with cost models (see [Morik et al., 1999]).

The code has been used on a large range of problems, including text classification [Joachims, 1999c][Joachims, 1998a], image recognition tasks, bioinformatics and medical applications. Many tasks have the property of sparse instance vectors. This implementation makes use of this property which leads to a very compact and efficient representation.

Other SVM Resources

source: http://svmlight.joachims.org/

Resources of Text Categorization


Resources of Text Categorization

On Line Papers

  • Overview and Feature selection
    1. David Dolan Lewis, Representation and Learning in Information Retrieval. PhD thesis, Department of Computer Science; Univ. of Massachusetts; Amherst, MA 01003, 1992.
    2. Yiming Yang and Xin Liu A re-examination of text categorization methods. Proceedings of ACM SIGIR Conference on Research and Development in Information Retrieval, (SIGIR), 1999.
    3. Yang, Y., Pedersen J.P. A Comparative Study on Feature Selection in Text Categorization Proceedings of the Fourteenth International Conference on Machine Learning (ICML’97), 1997.
  • Support Vector Machines
    1. Thorsten Joachims , Text Categorization with Support Vector Machines: Learning with Many Relevant Features. European Conference on Machine Learning (ECML), Claire Nédellec and Céline Rouveirol (ed.), 1998.
    2. Robert Cooley , Classification of News Stories Using Support Vector Machines (1999). Proceedings of the Sixteenth International Joint Conference on Artificial Intelligence Text Mining Workshop, August 1999.
    3. kernel-machines.org.
    4. S. Dumais and H. Chen, Hierarchical classification of Web content. Proceedings of SIGIR’00, August 2000, pp. 256-263.
  • Naive Bayes
    1. Andrew McCallum and Kamal Nigam, A Comparison of Event Models for Naive Bayes Text Classification. AAAI-98 Workshop on “Learning for Text Categorization”
  • K Nearest Neighbor
    1. Jerome H. Friedman , J. H. “Flexible Metric Nearest Neighbor Classification.” Technical Report (Nov. 1994).
  • Decision Tree
    1. C. Apte ,F. Damerau, and S.M. Weiss, Text Mining with Decision Trees and Decision Rules, in Conference on Automated Learning and Discovery, Carnegie-Mellon University, June 1998.
    2. C. Apte , F. Damerau, and S.M. Weiss, Towards Language Independent Automated Learning of Text Categorization Models, in ACM SIGIR’94, July 1994.
    3. Robert E. Schapire and Yoram Singer, BoosTexter: A boosting-based system for text categorization. Machine Learning, to appear.
  • Neural Network
  • New Event Detection or Topic Detection
    1. J. Allan , J. Carbonell, G. Doddington, J. Yamron, and Y. Yang, “Topic Detection and Tracking Pilot Study: Final Report”. Proceedings of the DARPA Broadcast News Transcription and Understanding Workshop, pp. 194-218. (April 1998)
    2. J. Allan , R. Papka, and V. Lavrenko, “On-line New Event Detection and Tracking”, in SIGIR ’98. (April 1998)
    3. Chris Clifton, Robert Cooley , TopCat: Data Mining for Topic Identification in a Text Corpus (1999). Proceedings of the 3rd European Conference of Principles and Practice of Knowledge Discovery in Databases, 1999.
  • Hierarchical Categorization
    1. Doug Baker, Thomas Hofmann, Andrew McCallum and Yiming Yang, A Hierarchical Probabilistic Model for Novelty Detection in Text. Submitted to NIPS’99.
    2. Kamal Nigam, John Lafferty, Andrew McCallum , Using Maximum Entropy for Text Classification. IJCAI’99 Workshop on Information Filtering.
    3. Soumen Chakrabarti , Byron Dom, Rakesh Agrawal, and Prabhakar Raghavan, Scalable feature selection, classification and signature generation for organizing large text databases into hierarchical topic taxonomies. International Journal on Very Large Data Bases, 7(3) pp163-178. Invited paper.
    4. K. Wang , S. Zhou, S.C. Liew, “Building hierarchical classifiers using class proximity”, VLDB 1999, September 1999, Edinburgh, UK, Morgan Kaufmann, 363-374.
    5. D. Koller and M. Sahami, Hierarchically classifying documents using very few words, . Proceedings of the 14th International Conference on Machine Learning (ICML), Nashville, Tennessee, July 1997, pages 170–178.

Machine Learning Resources

On Line Softwares

source:http://www.cs.helsinki.fi/group/doremi/categorization/categorylinks.html

Solidaritas untuk Sesama (Donate for Charity)


Solidaritas untuk Sesama (Donate for Charity)

Assalammua’alaikum wr.wb,..

Semoga kita semua selalu berada dalam lindugan dan Rahmat Nya. Amin,..

Terkait dengan kondisi saudara kita Pak Triyono (dosen TIF FST UIN),  beliau saat ini sangat memerlukan bantuan dan uluran tangan kita.

Saat ini, beliau setiap 2 atau 3x dalam seminggu melakukan cuci darah dan dibiayai oleh pihak kampus. Namun dalam waktu dekat, pembiayaan tsb akan dihentikan karena sebab tertentu. Salah satu alternatif solusi jangka panjang untuk mengatasi masalah beliau tresebut adalah beliau akan melakukan transplantasi ginjal.

Dari info yg saya dapat dan juga setelah berbincang dengan secara langsung dengan beliau, beliau belum mempunyai kemampuan untuk melaksanakan “Transpalnatasi Ginjal”. Biaya operasi tsb berkisar Rp. 150 juta atau RM. 60,000.

Untuk itu, saya mengajak diri sendiri dan kawan2 semua untuk sama2 peduli terhadap salah satu saudara kita ini. Mudah2an kita diberi kemudahan dan kesanggupan untuk berbuat amal kebaikan. Amin

Uluran tangan dan dan bantuan kita akan sangat berarti jika segera direalisasikan.

Salam setia kawan,..

Ness
Penyampai berita

bantuan dapat di alamatkan ke nomor rekening :

Triyono : 0118-0067454522 Bumiputra Commerce Bank (CIMB) Malaysia,

4450403445 Rekening BCA Cabang Katamso, Yogyakarta :

related news:

A letter to everybody

http://trionolita. blogspot. com/
August, 2008.

Dear all,

Assalaamu’alaikum wr.wb.

My name is Lita Rahmasari, 28 years old. I’m a housewife. My husband’s name is Triyono, 33 years. We are from Indonesia and have married for 5 years. My husband is studying in UTM Malaysia under an RSG scheme.

He started study for Master Degree UTM in December 2005 with normal health condition. He did the study normally in fist semester and got the good result, with GPA 3.86. In second semester, August 2006, my husband got both of his kidney failure, so he postponed his study and went back to Indonesia for haemodialysis. Due to our financial condition, the government facilitated us with limited fund to pay the kidney treatments. It was not enough to keep my husband in a good condition, because it could only cover the basic service for kidney treatment, 2 times a week of dialysis and blood transfusion whenever hemoglobin (Hb, the amount of good-quality red-blood cells) was very low.

In January 2007, he decided to continue his study and back to UTM. He could continue but still need to dialysis for three times a week at UTM medical center and medical check-up every three month at Hospital Sultanah Aminah Johor Bahru. He is now in better condition. Alhamdulillah, UTM had pay for the cost of dialysis about RM3,000.00 for a month till now. He just finished his Master Degree at June 2008.

Now, he just started his PhD Degree on July 2008. His Supervisor told him that UTM can’t pay the cost for his dialysis anymore for next semester, January 2009. He must pay the dialysis by himself or do kidney transplantation. So, he wants to do kidney transplantation for better quality of life, because dialysis is considered very hard: costly, painful, takes time, and physically weakening. He wants to do the kidney transplantation as soon as possible, before the end of this year. His mother is generously willing to donate her kidney. We already asked to head of Renal Treatment at Sardjito Provincial Hospital (Prof. dr. Syahbani), kidney transplantation cost is about RM60,000,00. It is very hard for us to take, because currently my husband doesn’t have a permanent job.

We desperately need financial support for the kidney transplantation. It is urgent to do the kidney transplantation, for the sake of my husband’s life. Without the transplant, his living opportunity would be very low. Our expectation is to be able to live normally without routine dialysis.

Thank you for your attention and I pray to Allah that everything will be ok and run smoothly. Thank you.

Wassalaamu’alaikum wr.wb.

Lita Rahmasari
Phone: +(60) 167933004

Quantitative Text Analysis Programs


Berikut beberapa sumber berkaitan dengan Text Analysis dan Content Analysis Program

sumber  (source): http://academic.csuohio.edu/kneuendorf/content/cpuca/qtap.htm

:

Quantitative Text Analysis Programs

CATPAC (http://www.terraresearch.com/)
CATPAC reads text files and produces a variety of outputs ranging from simple diagnostics (e.g., word and alphabetical frequencies) to a summary of the “main ideas” in a text. It uncovers patterns of word usage and produces such outputs as simple word counts, cluster analysis (with icicle plots), and interactive neural cluster analysis. A nifty add-on program called Thought View can generate two and three-dimensional concept maps based on the results of CATPAC analyses (one especially neat feature of Thought View allows users to look at the results through 3-D glasses and experience MDS-style output like never before, in true, movie theater-style, 3-D fashion!).
Computer Programs for Text Analysis (http://unix.dsu.edu/~johnsone/ericpgms.html)
This is not a single computer program but rather a series of separate programs by Eric Johnson that each perform one or two basic functions, including analyzing appearances of characters in a play (ACTORS program), getting KWIC (CONCORD program), computing the amount of quotation in texts (DIALOG program), and comparing the vocabulary of two texts (IDENT program). The programs seem ideal for literary-type analyses.
Concordance 2.0 (http://www.rjcw.freeserve.co.uk/)
This program lets you make full concordances to texts of any size, limited only by available disk space and memory.  You can also make fast concordances, picking your selection of words from text, and make Web Concordances: turn your concordance into linked HTML files, ready for publishing on theWeb, with a single click. See the original Web Concordances for examples.
Diction 5.0 (http://www.sagepub.com/)
Diction 5.0 contains a series of built-in dictionaries that search text documents for 5 main semantic features (Activity, Optimism, Certainty, Realism and Commonality) and 35 sub-features (including tenacity, blame, ambivalence, motion, and communication). After the user’s text is analyzed, Diction compares the results for each of the 40 dictionary categories to a “normal range of scores” determined by running more than 20,000 texts through the program. Users can compare their text to either a general normative profile of all 20,000-plus texts OR to any of 6 specific sub-categories of texts (business, daily life, entertainment, journalism, literature, politics, scholarship) that can be further divided into 36 distinct types (e.g., financial reports, computer chat lines, music lyrics, newspaper editorials, novels and short stories, political debates, social science scholarship). In addition, Diction outputs raw frequencies (in alphabetical order), percentages, and standardized scores; custom dictionaries can be created for additional analyses.
DIMAP (http://www.clres.com/)
DIMAP stands for DIctionary MAintenance Programs, and its primary purpose is dictionary development. The program includes a variety of tools for lexicon building rooted in computational linguistics and natural language processing (Litkowski, 1992). With DIMAP, users can build, manage, edit, maintain, search and compare custom and established dictionaries. The program also includes a text analysis module called MCCA (the lite version of which is described below).
General Inquirer (Internet version) (http://www.wjh.harvard.edu/~inquirer/)
This venerable, still widely-used program has found new life on the World Wide Web. The online version of the General Inquirer gets our vote for the simplest and quickest way to do a computer text analysis–simply visit the Internet General Inquirer site, type or paste some text into a box, click submit, and your text will be analyzed. The Internet General Inquirer codes and classifies text using the Harvard IV-4 dictionary, which assess such features as valence, Osgood’s three semantic dimensions, language reflecting particular institutions, emotion-laden words, cognitive orientation, and more. The program also returns cumulative statistics (e.g., simple frequencies for words appearing in the text) at the end of each analysis. Though we could not find any information on a software-based version of the Inquirer, creator Phillip J. Stone holds summer seminars on the program at the University of Essex.
HAMLET (http://www.apb.cwc.net/homepage.htm)
“The main idea of HAMLET © is to search a text file for words in a given vocabulary list, and to count joint frequencies within any specified context unit, or as collocations within a given span of words.  Individual word frequencies (fi) , joint frequencies (fij) for pairs of words (i,j), both expressed in terms of the chosen unit of context, and the corresponding standardised joint frequencies are displayed in a similarities matrix, which can be submitted to a simple cluster analysis and multi-dimensional scaling.  A further option allows comparison of the results of applying multi- dimensional scaling to matrices of joint frequencies derived from a number of texts, using Procrustean Individual Differences Scaling (PINDIS).”
INTEXT/TextQuest–Text Analysis Software (http://www.intext.de)
INTEXT is a program designed for the analysis of texts in the humanities and the social sciences. It performs text analysis, indexing, concordance, KWIC, KWOC, readability analysis, personality structure analysis, word lists, word sequence, word permutation, stylistics, and more.  TextQuest is the Windows version of INTEXT.  It performs all of the INTEXT analyses, but through an easier-to-use Windows interface.
Lexa (http://nora.hd.uib.no/lexainf.html)
Designed with linguists in mind, Lexa Corpus Processing Software is a suite of programs for tagging, lemmatization, type/token frequency counts, and several other computer text analysis functions.
LIWC (Lingustic Inquiry and Word Count software) (https://www.erlbaum.com/shop/tek9.asp?pg=products&specific=1-56321-208-0)
LIWC has a series of 68 built-in dictionaries that search text files and calculate how often the words match each of the 68 pre-set dimensions (dictionaries), which include linguistic dimensions, word categories tapping psychological constructs, and personal concern categories. The program also allows users to create custom dictionaries. The program seems especially useful to psychologists who wish to examine patient narratives.
MCCA Lite (http://www.clres.com/)
Though somewhat hampered by quirks such as limited function availability, the lite version of MCCA analyzes text by producing frequencies, alphabetical lists, KWIC, and coding with built-in dictionaries. The built-in dictionaries search for textual dimensions such as activity, slang, and humor expression. The program’s window-driven output makes sorting and switching between results easy. MCCA also includes a multiple-person transcript analysis function suitable for examining plays, focus groups, interviews, hearings, TV scripts, other such texts.
MECA (no website)
MECA, which stands for Map Extraction Comparison and Analysis, contains 15 routines for text analysis. Many of these routines are for doing cognitive mapping and focus on both concepts and the relations between them. There are also routines for doing more classic content analyses, including a multi-unit data file output routine that shows the number of times each concept appears in each map.
MonoConc (http://www.ruf.rice.edu/~barlow/mono.html)
As the name suggests, MonoConc primarily produces concordance information. These results can be sorted and displayed in several different user-configurable ways. The program also produces frequency and alphabetical information about the words in a given corpus.
ParaConc (http://www.ruf.rice.edu/~barlow/parac.html)
ParaConc is a bilingual/multilingual concordance program designed to be used for contrastive corpus-based language research. For Macintosh, Windows version announced.
PCAD 2000 (http://www.gb-software.com/)
PCAD 2000 applies the Gottschalk-Gleser content analysis scales (which measure the magnitude of clearly defined and categorized mental or emotional states) to transcriptions of speech samples and other machine-readable texts. In addition to deriving scores on a variety of scales, including anxiety, hostility, social alienation, cognitive impairment, hope, and depression, the program compares scores on each scale to norms for the demographic groups of subjects. It can also explain the significance and clinical implications of scores and place subjects into clinical diagnostic classifications derived from the Diagnostic and Statistical Manual of Mental Disorders, Fourth Edition (DSM-IV), developed by the American Psychiatric Association.
PROTAN (site down)
PROTAN (for PROTocol ANalyzer) is a computer-aided content analysis system.  It addresses the question of how does the text look like.  To achieve this first task, PROTAN rests on a series of semantic dictionaries that are part of the system.  The second task to which PROTAN is tuned is to answer the question of what the text is talking about. What are the main themes in it?  For more:  http://www.psp.ucl.ac.be/~upso/protan/PROTANAE.html
SALT (Systematic Analysis of Language Transcripts) (http://www.waisman.wisc.edu/salt/index.htm)
This program is designed mainly to help clinicians identify and document specific language problems. It executes a myriad of analyses, including types of utterances (e.g., incomplete, unintelligible, nonverbal), mean length of utterances, number and length of pauses and rate of speaking, and frequencies for sets of word (e.g., negatives, conjunctions, and custom dictionaries). The Salt Reference Database, described online, allows users to compare the results of their SALT analyses to normative language measures collected via a sample of more than 250 children of various ages, economic backgrounds, and abilities in the Madison, Wisconsin area.
SWIFT Content Analysis Software (site down)
SWIFT stands for Structured Word Identification and Frequency Table, an interactive, keyword-based program for analyzing multiple, short texts. SWIFT is free, operating system DOS.  This free program seems best suited to coding open ended text responses.
TABARI (Text Analysis By Augmented Replacement Instructions) (http://www.ku.edu/~keds/software.dir/tabari.html)
The successor to KEDS, this program is specifically designed for analyzing short news stories, such as those found in wire service reports. It codes international event data (which are essentially codes recording the interactions between actors) using pattern recognition and simple grammatical parsing. The authors have developed a number of dictionaries to help code event data. The WEIS coding scheme, for example, can determine who acts against whom, as in the case of an Iraqi attack against Kuwait. When such an event is reported in a news story, the program can automatically code the aggressor, victim and action, as well as the date of the event. TABARI is currently only available for Macintosh, but a Windows version is in the works.
TextAnalyst (http://www.megaputer.com/index.php3)
TextAnalyst is an intelligent text mining and semantic information search system.  TextAnalyst implements a unique neural network technology for structural processing of texts written in natural language. This technology automates the work with large volumes of textual information and can be applied effectively to perform the following tasks:  creation of knowledge bases expressed in a natural language, as well as creation of hypertext, searchable, and expert systems; AND automated indexing, topic assignment, and abstracting of texts.
TEXTPACK 7.0 (http://www.social-science-gesis.de/en/software/textpack/index.htm)
The TEXTPACK program, which was originally designed for the analysis of open-ended survey responses, has been broadened in recent years to include features of use to content, literary and linguistic analysts. It now produces word frequencies, alphabetical lists, KWIC and KWOC (KeyWord Out of Context) searches, cross references, word comparisons between two texts, and coding according to user-created dictionaries. This multi-unit data file output can be imported in statistical analysis software. The new Windows version of the program takes full advantage of the Windows user interface.
TextSmart by SPSS Inc. (http://www.spss.com/spssbi/textsmart/)
This software, designed primarily for the analysis of open-ended survey responses, uses cluster analysis and multidimensional scaling techniques to automatically analyze key words and group texts into categories. Thus, it can “code” without the use of a user-created dictionary. TextSmart has a pleasant, easy-to-use Windows interface that allows for quick sorting of words into frequency and alphabetical lists. It also produces colorful, rich-looking graphics like bar charts and two-dimensional MDS plots.
Tropes (http://www.semantic-knowledge.com/)
“Designed for Semantic Classification, Keyword Extraction, Linguistic and Qualitative Analysis, Tropes software is a perfect tool for Information Science, Market Research, Sociological Analysis, Scientific and Medical studies, and more..”
VBPro (http://mmmiller.com/vbpro/vbpro.htm)
Outputs frequency and alphabetical word lists, key words in context (KWIC), and coded strings of word-occurrence data based on user-defined dictionaries. In addition, it includes a multidimensional concept-mapping sub-program called VBMap that measures the degree to which words co-occur in a text or series of texts. Miller, Andsager and Riechert (1998), for example, used the program to compare the press releases sent by 1996 GOP presidential candidates to the coverage the candidates received in the press. The program helped the researchers (a) generate a list of key words appearing in the text and (b) generate a map showing the relative positions of candidates, in both press releases and media coverage, to each other and on key issues in the election (e.g., family values, education). The program runs under DOS and is available for free from the software author’s website.
WordStat v5.0 (http://www.provalisresearch.com/wordstat/wordstat.html)
This add-on to the Simstat statistical analysis program includes several exploratory tools, such as cluster analysis and multidimensional scaling, for the analysis of open-ended survey responses and other texts. It also codes based on user-supplied dictionaries and generates word frequency and alphabetical lists, KWIC, multi-unit data file output, and bivariate comparisons between subgroups. The differences between subgroups or numeric variables (e.g., age, date of publication) can be displayed visually in high resolution line and bar charts and through 2-D and 3-D correspondence analysis bi-plots. One particularly noteworthy feature of the program is a dictionary building tool that uses the WordNet lexical database and other dictionaries (in English and five other languages) to help users build a comprehensive categorization system.
The Yoshikoder (http://people.cbrss.harvard.edu/wlowe/CCA.html)
Yoshikoder is a cross-platform multilingual content analysis program developed as part of the Identity Project at Harvard’s Center for International Affairs.

Text Analysis Resources


Major Text Analysis Resources

Text analysis, Semantics & Classification:

Spell checkers:

Speech to Text:

To go to the Text analysis main page, click here.

source: http://www.textengines.com/analysis/links.htm

Pohon Energy (Energy Tree)


Pohon Energi

Danau Kari di Teluk Kuantan, Kuantan Singingi

Danau Kari di Teluk Kuantan, Kuantan Singingi

Beberapa waktu belakangan ini, banyak daerah yang mengeluhkan tentang terbatasanya ketersediaan energi, baik itu energi listrik ataupun energi/bahan bakar kendaraan berupa solar.  Keterbatasan energi tersebut, dapat dan telah menimbulkan berbagai permasalahan, seperti kemacetan jalan akibat menunggu giliran di SPBU, transportasi umum yang mogok yg mengakibatkan terganggunya kegiatan ekonomi, hilangnya penghasilan harian beberapa jenis pekerjaan dan yang jelas, menimbulkan stress dan emosi pada beberapa individu yg langsung menerima imbasnya.

Kalau ditelusuri secara iseng dan dilakukan oleh orang awam yg tidak punya ilmu dan kepahaman tentang energi saja,  dapat menyimpulkan sebab dari kejadian tersebut.  Diantara kesimpulan dan pertanyaan yang akan muncul benak mereka antara lain “apakah memang habis stok minyak kita?”, “kemana kita cari minyak yg murah dan mudah didapat ya?”, “kok bisa langka minyak begini kita? Kan kita negara yg banyak tambang minyak?”.

Dari sisi pemerintahan, “apa tidak ada orang pemerintahan yang paham POAC (Planning, Organizing, Actuating, Controlling) tentang kebijakan energi?, apa tidak ada study yg dilakukan khusus membahas energi ? apa tidak ada,… apa tidak ada…? Mengapa tidak ada ,….?  Dimana pokok masalahanya? dimana….?

Sebenarnya, walau seribu atau sejuta pertanyaan yang muncul tersebut, pemerintah wajib sudah memikirkan, menyelesaikan dan mengantisipasinya. Wajib ada “bank-jawaban” yang siap di akses kapan saja dan dapat menjawab pertanyaan/persoalan/masalah yang muncu akibat kebijakan pemerintah yg telah dibuat.

Bukankah semua dampak yang diakibatkannya akan sangat dirasakan rakyat, rakyat yang tak berpunya dan kadang tak ada pilihan lain? Atau mereka sudah pada “tuli”???

Tanya pada bintang dan pohon sawit yang bergoyang ???

bersambung,….

photo courtesy :