rcu: Fundamental facility for 'CPU units sequence reading'
authorMichael Wang <wangyun@linux.vnet.ibm.com>
Thu, 20 Sep 2012 00:51:03 +0000 (08:51 +0800)
committerPaul E. McKenney <paulmck@linux.vnet.ibm.com>
Thu, 8 Nov 2012 19:50:15 +0000 (11:50 -0800)
This patch add the fundamental facility used by the following patches, so we
can implement the 'CPU units sequence reading' later.

This helps us avoid losing data when there are too many CPUs and too
small of a buffer, since this new approach allows userspace to read out
the data one CPU at a time.  Thus, if the buffer is not large enough,
userspace will get whatever CPUs fit, and can then issue another read
for the remainder of the data.

Signed-off-by: Michael Wang <wangyun@linux.vnet.ibm.com>
Signed-off-by: Paul E. McKenney <paulmck@linux.vnet.ibm.com>
kernel/rcutree_trace.c

index 62223a27f985e0b11eaba29ff10571adc09d3945..0dfe9b512f0f925af9bc8c798ed6c6b43079ca21 100644 (file)
 #define RCU_TREE_NONCORE
 #include "rcutree.h"
 
+static int r_open(struct inode *inode, struct file *file,
+                                       const struct seq_operations *op)
+{
+       int ret = seq_open(file, op);
+       if (!ret) {
+               struct seq_file *m = (struct seq_file *)file->private_data;
+               m->private = inode->i_private;
+       }
+       return ret;
+}
+
+static void *r_start(struct seq_file *m, loff_t *pos)
+{
+       struct rcu_state *rsp = (struct rcu_state *)m->private;
+       *pos = cpumask_next(*pos - 1, cpu_possible_mask);
+       if ((*pos) < nr_cpu_ids)
+               return per_cpu_ptr(rsp->rda, *pos);
+       return NULL;
+}
+
+static void *r_next(struct seq_file *m, void *v, loff_t *pos)
+{
+       (*pos)++;
+       return r_start(m, pos);
+}
+
+static void r_stop(struct seq_file *m, void *v)
+{
+}
+
 static int show_rcubarrier(struct seq_file *m, void *unused)
 {
        struct rcu_state *rsp;