Télécharger la liste

Description du projet

Boosting is a meta-learning approach that aims at
combining an ensemble of weak classifiers to form
a strong classifier. Adaptive Boosting (Adaboost)
implements this idea as a greedy search for a
linear combination of classifiers by overweighting
the examples that are misclassified by each
classifier. icsiboost implements Adaboost over
stumps (one-level decision trees) on discrete and
continuous attributes (words and real values).
This approach is one of the most efficient and
simple to combine continuous and nominal values.
This implementation is aimed at allowing training
from millions of examples by hundreds of features
in a reasonable amount of time/memory.

Système requise

System requirement is not defined
Information regarding Project Releases and Project Resources. Note that the information here is a quote from Freecode.com page, and the downloads themselves may not be hosted on OSDN.

2008-03-19 21:23
r102

Cette version apporte quelques corrections de bugs dans la formation et des procédures d'essai et les rapports de taux d'erreur sur les problèmes multi-classe. En outre, l'optimisation des fonctions les plus appelés de Nice introduit des améliorations entraînement de vitesse. Ce communiqué met également à jour la documentation et s'efforce d'améliorer le traitement des cas rares. Le F-cadre de mesure a été largement testé sur des problèmes de classification variées.
Tags: Major bugfixes
This release brings a few bugfixes in training and test procedures, and error rate reports on multi-class problems. Moreover, optimization of the most called functions brought nice training speed improvements. This release also updates the documentation and tries to improve the handling of rare cases. The F-measure framework has been widely tested on diverse classification problems.

2008-01-25 08:01
r82

Options pour faciliter la fonctionnalité et la sélection des paramètres ont été ajoutés. Le classificateur peut afficher F-mesure et enregistrer un modèle à l'itération en maximisant sa création. Au Temps de test, les probabilités a posteriori peuvent être émises. La formation peut être interrompue et reprise plus tard par un modèle partiel.
Tags: Minor feature enhancements
Options for easier feature and parameter selection
were added. The classifier can display F-measure
and save a model at the iteration maximizing it.
At test time, posterior probabilities can be
output. Training can be interrupted and resumed
later from a partial model.

2007-11-07 22:54
43 (version 0.3b)

Cette version apporte le classement selon plusieurs label, N / S / F-experts grammes, optimale des itérations sur un ensemble de développement, régulier sélection basée sur une expression de colonne, et quelques corrections de bugs.
Tags: Major feature enhancements
This release brings multi-label classification, n/s/f-gram experts, optimal iterations on a development set, regular-expression based column selection, and a few bugfixes.

2007-07-24 03:07
0.2

Tags: Initial freshmeat announcement

Project Resources